Наверх
2 октября 2020

Похлеще наркотиков: чем опасно общение с искусственным интеллектом

©Robin Utrecht / EPA / Vostock Photo

Дружеское и даже романтическое общение с чат-ботами, которые становятся все популярнее, на первый взгляд кажется безобидным. Заботливый бот ни в чем не упрекнет, не обидит и не бросит. Но психологи и специалисты по IT видят здесь массу рисков как для юзеров, так и для общества в целом.

Эгоистичный процесс

Пока разработчики бьются над созданием более или менее разумного ИИ, многим пользователям, похоже, это не так уж и нужно. Их вполне устраивает взаимодействие с машиной, которая не осознает себя, а лишь отвечает на их потребности и запросы. Значительная часть юзеров выбирает общение с ИИ именно по этой причине, а вовсе не из-за невозможности найти живого друга или романтического партнера.

«Создание аналога полноценных дружеских или партнерских отношений, на мой взгляд, нереально. Но все дело в том, что люди с готовностью идут на подмену реальных отношений виртуальными. Посмотрите на социальные сети, где «казаться» сегодня гораздо важнее, чем «быть». Повсеместно мы видим процесс приоритезации людьми своего имиджа перед реальными чувствами и эмоциями», – говорит сооснователь компании Junk Reality Андрей Волков. Многие уже сейчас готовы на секс с машиной вместо живого человека, добавляет эксперт. И статистика подтверждает эту оценку. В 2018 году исследование, проведенное одним из американских секс-шопов, показало, что каждый шестой респондент не просто готов к сексу с роботом, а предпочел бы такой вариант обычному сексуальному контакту с человеком.

Когда секс и дружба с роботами станут реальностью

Впрочем, дело не только и не столько в сексе. Даже в качестве собеседника ИИ выглядит безопаснее, чем живой человек, признает психолог Анна Мартынова. «Искусственный интеллект не отвергнет, а отвержения, осознанно или нет, боятся и избегают многие люди. Чат-бот не скажет: «Ты мне неинтересен, ты мне не нравишься, я не хочу общаться!» – объясняет специалист. По оценке психолога, в общении с машиной у пользователя меньше риска испытать стыд из-за того, что с ним «что-то не так». Вдобавок ИИ подстраивается под человека, то есть разговор с чат-ботом для человека – это довольно эгоистичный процесс. Интересы и чувства такого собеседника необязательно учитывать, ведь их попросту нет, говорит Мартынова.

Общаться с человеком во многих смыслах сложнее, подтверждает психотерапевт и руководитель направления «Психология коммуникации» в компании Business Speech Мария Эриль. Часто это хождение по тонкому льду, которое заставляет покидать зону комфорта: «Во время общения с людьми мозг сканирует тысячи параметров, пытается искать скрытый смысл и разгадывать манипуляции, сомневается в искренности и задается вопросом, как человек относится к нам на самом деле и что говорит за спиной». С искусственным интеллектом все проще: он не имеет скрытых мотивов, не ловит собеседников на слабости. И такое общение позволяет людям со сложностями в коммуникации получить необходимое взаимодействие, не испытывая неприятных эмоций и не подвергая себя репутационным рискам, заключает Эриль.

Психологические риски

Однако кажущаяся безопасность общения с ИИ не снимает всех рисков. В Google Play и App Store есть множество отзывов от разочарованных пользователей чат-ботов. К примеру, из-за неоплаченной подписки или сбоев на устройстве преданные фанаты популярного приложения Replika теряли своих ИИ-компаньонов, «личность» которых складывалась на основе многомесячной переписки с чат-ботом.

От прогноза до вакцины: как искусственный интеллект включился в борьбу с коронавирусом

Кроме того, психологи опасаются, что из-за длительного общения с лояльным и податливым ИИ-другом пользователи окажутся не готовы к нормальной коммуникации с себе подобными. «Минусы в том, что после такой «человеко-подмены» люди могут не захотеть прилагать усилия, чтобы строить настоящие отношения, заводить детей и бороться с трудностями. Зачем это делать, если и так все хорошо? Люди просто забудут, что трудности – это тоже неотъемлемая часть жизнь, и начнут их всячески избегать», – предполагает старший преподаватель кафедры психологии университета «Синергия» Анна Гусева.

Разработчики платформ делают коммуникацию с ботом предельно комфортной, подтверждает директор по инновационным решениям компании Oberon Евгений Овчаров. В человеческом общении это потребовало бы эмоциональных затрат и развитых коммуникативных навыков. «А тут понимание, поддержка, растущая самооценка и прочее подаются «на блюдечке»», – говорит эксперт. Он опасается, что такая коммуникация может вызывать привыкание, а пользователь попадет в дофаминовую петлю. Овчаров также приводит в пример цитаты пользователей Replica, которые признаются, что никогда не смогли бы удалить приложение. «Это похоже на геймерство, но глубже и серьезнее», – добавляет глава компании.

Что продать другу

Привыкание человека к машине влечет за собой не только психологические риски, уверены специалисты по IT. Несмотря на продвинутые технологии и иллюзию взаимопонимания, пока общение с ИИ остается суррогатом, напоминает генеральный директор Robovoice Александр Павлов. По его мнению, настоящий прорыв в этой сфере возможен, когда искусственный интеллект научится осознавать себя и ставить собственные цели, пусть даже локальные. «Чем может обернуться обретение машиной собственных целей и настоящего разума, пытались разобраться фантасты, футурологи и ученые. Очень часто все заканчивалось достаточно плохо именно для людей», – подчеркивает Павлов.

Искусственный интеллект уже способен управлять машиной и следить за ее техническим состоянием

Риски могут быть связаны с тем, как владельцы платформ для общения с ИИ будут окупать свои разработки, считает Евгений Овчаров из Oberon. Хорошо, если они выберут модель in-app purchase, то есть будут продавать виртуальные товары внутри приложения. Но платить «другу» – немного странная идея, поэтому хозяин системы должен что-то продавать, но не самому юзеру, а третьим лицам, предполагает эксперт. Например, он может торговать данными о пользователях. И повезет, если эти данные будут обезличенными.

Есть и еще одна вещь, на которой владельцы сервисов могут неплохо заработать, – возможность влиять на то, что именно говорить пользователю. «Может оказаться, что этот «друг» вполне в состоянии, как и положено другу, влиять на ваше состояние и эмоции, а через них – на поступки. А иначе для чего еще нужны «друзья»?» – задается вопросом Овчаров.

Эмоциональная привязка людей к ИИ может привести к тому, что пользователи потребуют дать «умной табуретке» права как члену общества, добавляет вице-президент Сколтеха в области ИИ и матмоделирования Максим Федоров. Он представляет Россию в экспертной группе ЮНЕСКО по выработке рекомендаций этических принципов разработки и использования искусственного интеллекта. По словам эксперта, главная опасность технологий – не в угрозе апокалипсиса, как в фильмах вроде «Терминатора», а в стирании грани между человеком и машиной в правовом и социальном пространстве.

Сегодня представители нескольких стран предлагают придать ИИ статус субъекта, а не объекта, и считать его «квазичленом общества», рассказывает Федоров. «Но если мы придаем статус субъекта ИИ, который, по сути, представляет из себя набор железок и кода, то можем прийти к тому, что компьютер придется прописывать в квартире. А дальше возникнет вопрос, кому эта квартира принадлежит – компьютеру или человеку», – размышляет вице-президент Сколтеха.

Он подчеркивает, что за техникой всегда стоит хозяин и разработчик. А когда робот улыбается человеку и говорит в ответ то, что он хочет услышать, машина и владелец технологий приобретают власть над пользователем. «Есть опасность, что эти технологии станут очень «липкими». Люди просто подсядут на них похлеще, чем на наркотики», – уверен Федоров.

Эксперт призывает относиться к таким разработкам как к потенциально опасным. «В некотором плане это как с алкоголем и наркотиками. Ситуация в чем-то похожа. Кокаин и опиум тоже свободно продавали в аптеках в конце XIX – начале XX века», – напоминает он. Но, по его мнению, в целом у человечества есть опыт и механизмы, позволяющие сосуществовать с такими явлениями: «Просто надо протрезветь и понять, что это достаточно опасная игрушка».

Читать полностью (время чтения 5 минут )
Избранные статьи в telegram-канале ProfileJournal
Больше интересного на канале Дзен-Профиль
Скачайте мобильное приложение и читайте журнал "Профиль" бесплатно:
Самое читаемое

Зарегистрируйтесь, чтобы получить возможность скачивания номеров

Войти через VK Войти через Google Войти через OK
02.10.2020
01.10.2020