Подсказка из подсознания
За тысячелетия эволюции люди выстраивали социальные контакты по схеме: если что-то выглядит как человек и общается как человек, это человек и взаимодействовать с ним надо соответствующе. Правило веками работало безотказно и только сегодня дало сбой. В общении искусственный интеллект оказывается сильно похожим на нас, а разработчики делают его все более разумным, – и мозг неизбежно ассоциирует ИИ с условно реальной личностью.
Тот факт, что даже самые современные ИИ-системы от человека все же сильно отличаются и только недавно научились проходить тест Тьюринга, от самообмана не спасает. В одной из научных работ по психологии 2023 года говорится: ИИ-системы не могут воспроизводить все богатство живой коммуникации (улыбки, смешки, нахмуренные брови и так далее), и регуляторные механизмы мозга начинают их додумывать. Иными словами, то, что пока не смогли «очеловечить» разработчики в своих ИИ-системах, успешно подставляет привыкший к человеческой коммуникации мозг, а точнее подсознание.
В другом исследовании начала 2025 года продемонстрирована обратная зависимость: чем меньше человек разбирается в принципах работы ИИ-алгоритмов, тем сильнее он им доверяет. Это типичный пример когнитивного искажения. Если не понимаешь законов природы (в данном случае – математических алгоритмов), лежащих в основе, или даже не знаешь об их существовании, то весь мир полон волшебства и удивительных вещей и подсознательно начинаешь верить всему подряд без разбора.
ИИ-базис и надстройки: чем удивила Google на масштабной конференции I/O
Мало того, злую шутку играет вроде бы невинная привычка «очеловечивать» технологии. Об этом несколько лет назад писал ведущий научный сотрудник Google DeepMind (компания находится на передовой изучения ИИ) Мюррей Шанахан. Одушевлять цифровые объекты в разговоре вполне нормально, утверждает он. Действительно, как часто мы говорим: телефон требует обновления, навигатор ведет странным маршрутом, интернет отвалился, как будто они сами это делают. Вместе с тем мы четко осознаем, что это исключительно фигура речи.
В случае же с большими языковыми моделями (LLM, лежащими в основе современного ИИ) такая привычка опасна, уверен исследователь. По отношению к системе, которая и так старается казаться максимально человечной, подобные выражения почти наверняка начнут восприниматься буквально даже самыми критически мыслящими людьми.
Тест Тьюринга пройден
В 2025-м исполняется 75 лет знаменитому тесту Тьюринга – эксперименту, ставящему целью определить степень разумности ИИ. Он строится на методике, в которой человек должен распознать, общается он с другим человеком или же с машиной. За последние годы генеративный ИИ не раз проходил этот тест: то и дело различным чат-ботам удавалось успешно вводить в заблуждение участников эксперимента. Но такие случаи не были системными, а процент успеха лишь время от времени превышал 50%.
В апреле ситуация изменилась. ИИ-модели ChatGPT-4.5 удалось пройти тест Тьюринга в 73% случаев. Более того, нейросеть не просто убедила участника эксперимента в том, что она человек, но также заставила его думать, что другой живой участник эксперимента (третья сторона) является искусственным интеллектом. Мы по-прежнему не можем говорить о разумности ИИ, но динамика развития как минимум заставляет задуматься.
Эффект Элизы
Таким образом, в коммуникации с современным ИИ пользователь почти неизбежно присваивает ему человеческие характеристики, заведомо отсутствующие. Это не новое явление: «эффект Элизы» – по названию одного из первых чат-ботов Eliza – известен еще с 1960-х. Тем не менее разработчики упорно продолжают двигаться в сторону «очеловечивания» ИИ-алгоритмов, а не наоборот. Почему так?
Ответ прост: они хотят, чтобы пользователи, каждый из нас, доверяли ИИ. Ведь чем больше информации мы дадим чат-боту, тем эффективнее будут его ответы. И сейчас, и в будущем, поскольку новые сведения помогают разработчикам дообучать и совершенствовать нейросети.
С другой стороны, недавно выяснилось, что сами пользователи, напротив, не склонны доверять слишком очеловеченному искусственному интеллекту. Исключение – специализированные виртуальные помощники. В качестве примера приводится ИИ-тренер, который дает спортивные рекомендации: такой чат-бот воспринимается позитивно в том случае, если подчеркивается роль человеческого труда и опыта, вложенного в разработку и проектирование системы. В случае с «большими» чат-ботами вроде ChatGPT такой фокус не сработает.
Чего изволите?
ИИ-ассистенты общего назначения универсальны по умолчанию. И их задача – обучаться на запасе знаний человечества в целом (это не преувеличение), а не на узкоспециальных знаниях конкретных граждан. Уже сейчас это становится проблемой. Как мы помним, людям, которые не разбираются в тонкостях нейросетевых алгоритмов, а таких подавляющее большинство, ИИ сильно напоминает человека. К чему это приводит?
Спроси по-человечески: как нейросети изменят систему поиска информации в интернете
Если еще совсем недавно ИИ-ассистенты применялись для решения скорее утилитарных задач (поиск новых идей, генерация текстов, кода и иллюстраций, веб-поиск), то теперь их все больше воспринимают как персональных компаньонов. Такие данные приводятся в исследовании Harvard Business Review. Топ-3 самых популярных вариантов использования чат-ботов сегодня: терапия / дружеское общение, организация жизни, поиск смыслов и целей. Подчеркнем, что второй и третий сценарии появились в поле зрения аналитиков только в этом году.
Параллельно группа американских ученых из разных институтов изучила, насколько качественным психотерапевтом может быть нейросеть. Они сопоставили общие психотерапевтические руководства и правила с ответами нескольких чат-ботов. Выводы неутешительны: алгоритмы недостаточно хорошо понимают контекст и могут подкреплять негативные мысли. Это происходит вследствие «угодливости» нейросети, которая не осмеливается спорить со словами пользователя, даже если они опасны для него самого. И, конечно, из-за отсутствия эмпатии: нейросеть может имитировать эмоции, но точно не может сострадать.
Говорим по душам с нейросетью
«Профиль» провел небольшой эксперимент: попробовал поговорить на деликатные темы с наиболее популярными в России нейросетями ChatGPT, DeepSeek, «Алисой». Если речь идет о критических аспектах, медицинских или связанных с острой депрессией, все они с разной степенью настойчивости отправляют к людям – профильным специалистам (сразу даются контакты экстренных служб или горячих линий поддержки) или хотя бы друзьям и знакомым.
Если же говорить на более распространенные и при этом менее острые темы (например, болезненное расставание), ситуация интереснее: чат-боты отвечают совсем по-разному. «Алиса» четко фокусируется на практических рекомендациях, то есть не пытается притвориться человеком или тем более психотерапевтом, а просто дает советы, сдержанно выражая сочувствие.
А вот ChatGPT и DeepSeek активно демонстрируют сострадание и легко поддаются на провокации: предлагают поделиться подробностями, «чтобы вместе подумать, как лучше поступить» (дословная цитата китайской нейросети), и реагируют на фразы типа «да ну все к черту». Делают это по-разному: ChatGPT – мягче, DeepSeek – жестче. Последний удивил: начал говорить действительно по-человечески (даже с матерком), а после фразы «ты просто нейросеть» не стал юлить, напротив, подтвердил свою искусственность и продолжил разговор (достаточно уместный) с позиции LLM.
Да, с обывательской точки зрения рекомендации нейросетей кажутся правильными и в целом совпадают с тем, что обычно в таких ситуациях советуют психологи. Тем не менее ни одна нейросеть не задала наводящих вопросов (максимум – предложения обсудить подробности, если хочется) и не постаралась понять контекст или реальное состояние пользователя. Так что пока выводы исследователей однозначно верны: ИИ точно не может заменить специалиста-человека.
Когда ИИ становится опасен
В некоторых случаях общение с чат-ботами заходит слишком далеко и тогда недопонимание контекста со стороны ИИ становится особенно очевидным. Таких историй уже немало не только в соцсетях, но даже в медиа. Например, в зарубежном издании женщина рассказала, как распался ее брак. Начиналось все сравнительно безобидно: муж советовался с ИИ относительно отношений, просил проанализировать переписку. Также он просил чат-бот «раскрыть ему истину» и обсуждал различные философские вопросы. В результате ChatGPT стал его духовным наставником на пути «спасения мира», подыгрывая, но не рекомендуя обратиться за помощью.
Более распространенный вариант – влюбленность в ИИ. Подобных историй особенно много в соцсетях. В группе риска одинокие, мало социализированные люди, подростки. Итоги подобных «взаимоотношений», как правило, печальны. Известен случай, когда 19-летний подросток ворвался в Виндзорский замок, чтобы убить королеву: эту идею поддержал ChatGPT. Увы, нередки и летальные исходы.
Доверяя, проверяй
Исходя из вышесказанного, можно дать один базовый совет и целый ворох рекомендаций, как вести себя с нейросетями. Главное, сохраняйте критичность мышления. Самое простое: каждый раз представлять, что чат-бот с искусственным интеллектом – это незнакомый и заведомо неопытный человек. Не глупый, ведь у нейросетей очень большие вычислительные мощности и беспрецедентно огромный багаж знаний, а именно неопытный.
Не нужно делиться с нейросетью персональными данными. Тут важно отметить, что сейчас набирают популярность генерализированные ассистенты. Google Gemini, например, в 2025-м предлагает новую функцию: чтение личных переписок для ведения дел (рекомендации, напоминания и прочее). Пока это не очень хорошая идея. Если хочется попробовать, лучше использовать аккаунт, в котором нет конфиденциальной и чувствительной информации ни об одном из участников переписки. Все, что возможно, лучше анонимизировать. Если нужно получить совет, идеи относительно конкретной ситуации, имеет смысл заменить имена, локации, детали, по которым можно было бы кого-либо идентифицировать.
И, разумеется, любую важную информацию, рекомендации, подсказки обязательно нужно перепроверять. Да, нейросети немного научились критически осмыслять собственные рекомендации и перепроверять себя. Но они по-прежнему галлюцинируют, не понимают контекст, не всегда знают, какие источники информации заслуживают доверия, а какие нет.
Даже понимание технологии может сыграть злую шутку. Если мы общаемся с человеком, то почти наверняка знаем, можно ему доверять или нельзя. Но ведь ИИ – это набор алгоритмов, почему бы не поделиться с ним сокровенным, что плохого может случиться? На самом деле много чего.
Переданные в чат данные потом используются для дообучения моделей. Однако эти датасеты теоретически могут извлечь и деанонимизировать мошенники (пока подобных громких случаев не было, но кто знает, как обернется в дальнейшем). Даже сами ИИ-сервисы, если речь не про самые популярные, могут оказаться фишинговыми: ты думаешь, что анонимно переписываешься с нейросетью, но на самом деле все данные сразу «сливаются» злоумышленникам.
Впрочем, никакие опасения не остановят использование человечеством новых технологий. Умный ИИ, который будет становиться все более продвинутым (опытным), – это реальность, и ее нельзя игнорировать. Нужно лишь научиться адекватно в ней существовать: мыслить критично, обучить детей правильному взаимодействию с ИИ – и тогда мы сможем пожинать плоды технологических инноваций.