ИИ – протез головного мозга
Бездумное использование GPT может стать "черным лебедем" для всего человечества
С появлением языковых моделей вроде ChatGPT человечество с радостным вздохом передало ответственность за мышление куда-то туда в «облако», к кремниевым «мозгам». Зачем утруждать себя сложным процессом размышлений, если можно набрать несколько слов – и тебе быстро отгрузят «аргументов» на любой вкус? Все чаще GPT-чаты становятся не помощниками, а настоящими мозговыми протезами – заменителями, суррогатами мышления. Причем человек даже не замечает, как добровольно оставляет интеллект в гардеробе у входа на праздник технологического прогресса.

Использование AI для повседневной жизни, учебе и работе создает реальные риски
©Профиль / AI / Никита Кондрашов- Ослабление навыков анализа
- Подмена внутреннего мышления чужим стилем
- Упрощение – путь к примитиву
- Привычка жить чужим умом
- Искусственный интеллект и реальный риск
- Нейросети – зеркало или костыль?
Ослабление навыков анализа
Вспомним школьную арифметику. Калькулятор спасал, когда нужно было умножить 438 на 762. Но стоило начать пользоваться гаджетом каждый день – и таблица умножения исчезла как базовый навык. С GPT происходит то же самое. Человек прекращает думать сам. Он привыкает к комфорту текстов, рождающихся за секунду. Зачем читать статьи и делать выводы, если можно просто спросить у чат-бота?
Профессор Эмили Бендер из Университета Вашингтона предупреждает: языковые модели – это не мыслящие сущности, а «стохастические попугаи», бесконечно имитирующие смысл, но не понимающие его. Опора на такие инструменты без усилий со стороны пользователя ведет к деградации мышления, причем не линейной, а экспоненциальной. Сегодня вы доверяете чату аннотацию текста, а завтра – политический анализ, врачебный диагноз, финансовый прогноз.
Подмена внутреннего мышления чужим стилем
GPT не просто отвечает – он исподтишка форматирует мышление. Шаблоны фраз, логика построения аргументов, риторика – все это просачивается в речь пользователя. Буквально человек говорит словами машины. И вот уже на наших глазах развивается эволюция комфорта – от удобства к привычке, от привычки к образу жизни, незаметно выхолащивая важнейший интеллектуальный навык – размышление и анализ.
Мы не просто передаем GPT задачи, мы уступаем ему сам акт мышления. Интеллектуальная автоматизация стирает привычку сомневаться, проверять, спорить. А зачем спорить, если ИИ все уже объяснил за тебя?
Международная группа исследователей еще в июне 2024 года опубликовала большую работу, посвященную влиянию ИИ на мыслительные функции человека. В ней утверждается, что «использование чат-ботов искусственного интеллекта, таких как ChatGPT, для когнитивной разгрузки может привести к неполной загрузке определенных когнитивных способностей, препятствуя их полному созреванию».
Возьмем простой пример: студент пишет эссе. Раньше он мучился, искал аргументы, страдал. Теперь вводит тему в чат, копирует вывод. Он не становится умнее. Он просто получает зачет. И подобная тенденция уже не просто теория, ее разрушительное действие на процессы обучения отмечается многими преподавателями.
Упрощение – путь к примитиву
Да, GPT-чаты делают сложные вещи понятными. Но вместе с этим исчезает их глубина. Там, где раньше был философский вопрос, теперь – уютный конспект в стиле «пять причин, почему все не так плохо». Человеку перестает быть доступна сложность. Он больше не умеет жить в ней.
Если мы не научимся критически воспринимать упрощенные ответы ИИ, мы утратим саму способность понимать сложное. Это тоже не гипотеза, а процесс в реальном времени. Представьте, что вам нужно разобраться в кризисной ситуации. GPT выдает вам три абзаца понятно, гладко, логично. Но без нюансов. Без факторов второго-третьего уровня. Без конфликтов гипотез. В результате вы «всё поняли», но при этом – ничего не поняли. Потому что в размышлениях утеряна еще и фаза дискуссии, а значит, и критики. А это, в свою очередь, выбрасывает на свалку величайшее достижение человеческого разума – философию.
Привычка жить чужим умом
Вот он, кульминационный акт – обретенная привычка. GPT становится вашим мозгом, только «облачным». Он отвечает вместо вас, чувствует вместо вас, формулирует вместо вас. Вы уже не рефлексируете – вы «гуглите в диалоге».
Опираясь на идеи философа и математика Нассима Талеба, можно утверждать: если человек не напрягается интеллектуально, не берет на себя риски, не ошибается и не учится на собственных решениях, он симулирует мышление. Быть может, именно такая симуляция для всего человечества и становится тем самым «черным лебедем»? Кошмарный подвох GPT, вероятно, заключается в незаметном превращении интеллекта в недоиспользуемую функцию.
Искусственный интеллект и реальный риск
Сторонники масштабного применения GPT часто говорят, что он снижает риски. Меньше ошибок, меньше опечаток, меньше времени на подготовку. ИИ не забывает, не устает, не подвержен эмоциям. Но есть одна ирония: GPT-подход к снижению рисков создает самый главный риск – ошибку GPT.
Все остальные человеческие слабости – усталость, некомпетентность, предвзятость – известны и распознаются. GPT же ошибается незаметно, уверенно, грамотно. Он говорит тоном эксперта даже тогда, когда абсолютно неправ или лжив. Именно это делает его ошибки столь опасными.
GPT не чувствует ответственности. Он не проверяет источники. Он не знает, когда он врет. А значит, пользователь должен взять на себя всё: критичность, проверку, осознание последствий. В противном случае ИИ уже не протез, а троянский конь в голове.
Нейросети – зеркало или костыль?
GPT может быть полезным, это не оспаривается. Он умеет вдохновлять, экономить время, систематизировать. Но только при одном условии: вы не отдаете ему свои когнитивные «мускулы». Все решает точка приложения. Используете ли вы GPT как зеркало, чтобы взглянуть на свои мысли со стороны? Или как костыль, чтобы не думать вообще?
Никакая технология не сделает нас глупыми. Мы сами делаем себя глупыми, используя достижения цифрового прогресса без осознания рисков и критики. GPT – невероятно мощный мотор, который может как ускорить ваше мышление, так и сжечь сцепление.
Читайте на смартфоне наши Telegram-каналы: Профиль-News, и журнал Профиль. Скачивайте полностью бесплатное мобильное приложение журнала "Профиль".