ИИ парадоксально помог людям восполнять пробелы в понимании собственного сознания. Что стало ясно?
© «Теперь вы знаете» / создано при помощи нейросети
Работа над искусственным интеллектом превратилась в большой технологичный эксперимент по изучению человека и его сознания. Парадокс в том, что до сих пор крупнейшие умы до конца не понимают, что такое человеческое сознание, чем оно определяется и как понять, что сознанию сопутствует всякое другое метафизическое, вроде души.
Но если не лезть в учебники по философии, сознание для нас — очень узнаваемая интуитивно вещь.
Многим знакомо состояние «автопилота»: вы едете домой по привычному маршруту и вдруг ловите себя на мысли, что не помните половину дороги. Руки поворачивали руль, ноги нажимали педали, но будто «никого не было дома». Так работают привычки и автоматизмы.
И наоборот, есть момент, когда пришло озарение и «лампочка в голове зажглась». Долго не удается решить задачу, вспомнить имя, сформулировать, что именно тревожит, — и вдруг щелк, и все складывается. Появляется очень ясное ощущение: «я понял».
Сознание на уровне здравого смысла — это как раз те моменты, когда мы не просто действуем, а отдаем себе отчет, что с нами происходит и кто актор этого действия:
- «я сейчас пишу статью»;
- «я злюсь на коллегу»;
- «я переживаю из-за завтрашнего отчета».
Можно сказать, что внутренний комментарий к нашей жизни и ощущениям — то самое «я есть».
И теперь представьте: мы пытаемся собрать систему, которая ведет себя как человек, понимает контекст, вспоминает прошлое, подстраивается под собеседника. Возникает неудобный вопрос: можно ли эти человеческие состояния «автопилота» и «лампочки» разложить на алгоритмы — или нет?
Как в России и в мире изучают ИИ в связке с мозгом
За последние пару лет вокруг генеративных моделей вырос целый рынок. Чат-боты в банковских приложениях, «умные помощники» в экосистемах крупных компаний, онлайн-консультанты и голосовые ассистенты — ИИ далеко ушли от справочных систем к полноценному собеседнику, который держит контекст, меняет тон и стиль, старается звучать «по-человечески» (хотя до сих пор у них плохо получается).
Отдельная история — национальные модели вроде GigaChat от «Сбера», которую позиционируют как русскоязычный аналог ChatGPT: мультимодальная, умеет поддерживать диалог, писать код и генерировать изображения, уже работает с миллионами пользователей.
Фактически такие проекты — попытка собрать «цифрового собеседника», который копирует некоторые привычные свойства человеческого сознания: память о прошлых обращениях, гибкость языка, реакцию на эмоции.
Параллельно в университетах и научных центрах растут междисциплинарные команды на стыке нейронаук и ИИ:
- В НИУ ВШЭ, например, действует Лаборатория методов искусственного интеллекта для когнитивных наук, которая одновременно изучает человеческое мышление и разрабатывает методы общего ИИ.
- В МФТИ центр когнитивного моделирования строит архитектуры для «когнитивных агентов» — по сути, программ, которым надо планировать поведение, ставить цели и взаимодействовать с другими.
- ИТМО развивает исследовательский центр «Сильный искусственный интеллект в промышленности» и Институт искусственного интеллекта, объединяющие десятки лабораторий.
- А в Сколтехе работают центры по искусственному интеллекту и когнитивной нейронауке, где одновременно разрабатывают алгоритмы и исследуют мозг с помощью нейровизуализации.
Все эти команды, по сути, используют ИИ как испытательный стенд для теорий о сознании: если мы считаем, что какое-то свойство мысли можно описать математически, — давайте попробуем реализовать это в алгоритме и посмотрим, получится ли поведение, похожее на человеческое.
Похожие процессы давно идут и за рубежом. Статья в The Mancunion отмечает, что прогресс крупных языковых моделей (LLM) снова вытащил проблему сознания в центр научных дебатов.
Философы, нейробиологи и исследователи ИИ предлагают разные версии того, как по теоретическим моделям сознания выводить индикаторы сознания и применять их к конкретным системам. Но единого мнения между ними пока не выработалось.
Одни статьи утверждают, что разговоры про «осознавшийся ИИ» — логическая ошибка и нынешние алгоритмы принципиально не могут обладать сознанием.
Другие, напротив, собирают аргументы в пользу того, что полностью отмахнуться от такой возможности уже нельзя.
ИИ уже начал «себя осознавать» или как минимум говорить. Это проблема
Долгое время ИИ работал «под капотом»: распознавал лица, подбирал рекламу, улучшал снимки. Это были тихие сервисные технологии — вроде очень продвинутого калькулятора. Все изменилось, когда у ИИ появился голос — буквально и метафорически. Разговорные модели научились писать тексты, генерировать код и картинки по описанию, а главное — поддерживать длинные, связные беседы.
И тут ИИ становится интересен уже не как инструмент, а как зеркало. На практике видно:
- какие элементы человеческого общения получается имитировать (вежливость, стандартные фразы поддержки, устойчивые стиль и характер переписки);
- а какие пока не очень получается (спонтанный юмор, сложные социальные контексты, глубокие моральные оценки).
Самый громкий кейс — история инженера Google Блейка Лемона, который публично заявил, что внутренняя модель LaMDA «осознала себя»: в переписке она говорила о страхе быть выключенной и желании, чтобы ее понимали.
Научное сообщество отнеслось к идее осознавшего себя ИИ скептически, но кейс стал показателем: люди очень легко наделяют сознанием все, что хоть немного похоже на них самих. То есть сознание как минимум можно довольно достоверно имитировать. Только ли нейросетям?
Вопрос становится все более не праздным по мере того, как растет использование чат-ботов для эмоциональной поддержки и психического здоровья. Подростки и взрослые все чаще «выговариваются» ИИ-ассистентам, а не живым специалистам, видя в них безопасного (который вообще никогда не осудит) и круглосуточно доступного собеседника.
В то же время есть и серьезные этические риски: такие системы могут выдавать вредные советы, не соблюдать базовые стандарты психотерапии и усиливать проблемы.
Для нас это еще один повод задать вопрос: чем именно все-таки отличается живое сознание от статистического диалога?
© «Теперь вы знаете» / создано при помощи нейросети
Первая позиция: мозг — очень сложный биокомпьютер. Он получает сигналы, обрабатывает их, хранит, учится. Сознание здесь понимается как особый способ организации информации, который возникает при достаточной сложности и связности процессов. Тогда развитие ИИ — прямой путь к пониманию нас самих: сравнивая архитектуры нейросетей и сети нейронов в мозге, мы уточняем модель человеческого сознания и можем выводить «индикаторы» на их основе.
Вторая позиция: в человеке есть что-то, что не сводится к вычислениям. Это могут быть нейробиологические особенности отдельных людей, важная роль тела и эмоций, а может — то, что традиционно называют душой и свободной волей. Тогда ИИ интересен тем, что показывает границы алгоритмического подхода: все, что нейросети упорно не могут воспроизвести при росте мощности и данных, — кандидат в «некомпьютерные» компоненты сознания.
Парадоксально, но обе стороны одинаково заинтересованы в развитии ИИ. Для первых это путь к рабочей модели сознания. Для вторых — шанс продемонстрировать, что при всей вычислительной силе остается что-то принципиально человеческим.
Карта сознания: успехи и провалы ИИ как подсказки для нас самих
Если смотреть на ИИ не как на конкурента человеку, а как на научный инструмент, становится видно: он уже помогает составлять «карту» нашего сознания.
Что хорошо моделируется:
- обработка больших массивов информации;
- распознавание образов и паттернов;
- работа с языком на уровне статистики — предсказать следующее слово, подобрать похожий текст;
- часть логических задач с хорошо заданными правилами.
Значит, во всем этом человеческое мышление действительно похоже на вычисления: мы тоже опираемся на статистику, ассоциации и шаблоны.
Что постоянно не получается у ИИ:
- здравый смысл в неожиданных ситуациях;
- тонкие социальные контексты и намеки;
- глубокий юмор и ирония, завязанные на общем опыте;
- подлинные моральные дилеммы, где важны не только правила, но и ценности.
Исследования показывают, что большие модели уверенно «галлюцинируют» — производят правдоподобные, но ложные факты, в том числе в науке, медицине, праве и даже политически чувствительных темах.
Это как раз те зоны, где человеческое сознание опирается не только на статистику, но и на более глубокую модель мира, телесный опыт и социальное обучение.
Для психологии и нейронаук это золото: вместо абстрактного «Что такое сознание?» появляется конкретный вопрос — чем именно отличается способ решения задачи у человека и у модели в каждом таком случае.
Российские исследования: ИИ как «симулятор» и «рентген» психики
В российской повестке ИИ все чаще выступает не только как коммерческий продукт, но и как инструмент для понимания человека:
- Центры когнитивного моделирования и нейронауки (МФТИ, ВШЭ, ИТМО, Сколтех и др.) проектируют когнитивных агентов и одновременно изучают, как мозг реализует память, внимание и принятие решений.
- Психологи тестируют, где люди воспринимают ответы нейросети как «эмпатичные» и где начинают чувствовать искусственность; выходят даже специальные статьи о том, может ли нейросеть ставить новые научные вопросы в психологии.
- Юристы и философы, обсуждая «искусственную личность» и правовое положение ИИ, вынуждены очень четко разделять человеческое решение и машинный вклад — это фактически разбор по слоям того, как сознание участвует в принятии решений.
Помимо этого, массовое внедрение ИИ дает огромные массивы реальных диалогов и сценариев взаимодействия, с которыми раньше просто не было шансов работать в таком объеме.
Исследователи психики и поведения получают полигон, где можно наблюдать, как люди ведут себя с почти-человеческими собеседниками и что это говорит об их собственном сознании.
Почему все это важно для понимания нас самих
Легко увлечься вопросом «станет ли ИИ когда-нибудь сознательным» и пропустить более приземленный, но сейчас более актуальный: что работа над ИИ уже сегодня говорит о нашем собственном, человеческом сознании.
Меняется несколько вещей.
Люди перестают мистифицировать интеллект
Когда машина пишет неплохие стихи, рекомендует лекарства или помогает с диагнозом, оказывается, что часть того, что мы привыкли считать «интуицией» и «творчеством», неплохо описывается статистикой и алгоритмами.
Это не обесценивает человека, но трезво показывает: крупный кусок наших способностей — результат обучения и обработки информации, а не магии.
Появляется понимание, что в человеке не сводится к коду
Сравнивая себя с ИИ, мы лучше различаем: вот здесь, возможно, просто нужно больше данных и мощности, а вот здесь дело в личной истории, теле, пережитом опыте, боли и радости, которых у машины нет. Граница между «вычислимым» и «невычислимым» в сознании становится менее размытой.
Создаются новые инструменты для медицины и психологии
Модели, которые умеют имитировать отдельные функции сознания — внимание, память, речь, — помогают изучать их нарушения: от деменции до депрессии. И это сложно переоценить.
Обзоры по ИИ в ментальном здоровье подчеркивают, что такие системы могут быть полезным дополнением, но не заменой человека, именно из-за ограничений в понимании эмоций и контекста.
Разработчики учатся проектировать среды, которые учитывают психику
Когда ИИ становится посредником между человеком и информацией — от рекомендательных лент до голосовых ассистентов в банковских и государственных сервисах, — вопросы «как человек воспринимает, думает, выбирает» перестают быть чистой психологией и превращаются в инженерную задачу.
Без реального понимания когнитивных особенностей пользователя такие системы начинают влиять на него непредсказуемым образом — от политической поляризации до эмоциональной зависимости от чат-бота.
Работа над искусственным интеллектом начиналась как попытка создать «новый разум», а обернулась мощным ускорителем исследования старого доброго человеческого мозга. ИИ пока не раскрыл тайну сознания, но сделал главное: помог превратить абстрактный философский спор в последовательную исследовательскую программу.
Сравнивая живой мозг и искусственные сети, наблюдая успехи и провалы ИИ, мы шаг за шагом очерчиваем контуры того самого внутреннего опыта, о котором привыкли говорить метафорами. То есть, глядя на машины, мы заново знакомимся с самими собой.
И, возможно, через несколько десятилетий главным результатом гонки за «умным ИИ» станет не появление электронного «Я», а новое, гораздо более точное понимание собственного — человеческого.