Врачи отмечают увеличение числа случаев, связанных с чрезмерной эмоциональной привязанности к искусственному интеллекту, а на Reddit появляются многочисленные истории о формировании зависимости от ИИ и негативном влиянии на межличностные отношения.

Изображение: img.freepik.com

GettyImages

Искусственный интеллект, выступающий в роли компаньона, сближается с людьми, обретая черты родственных отношений

За последние несколько месяцев в интернете появилось множество новых оскорблений в адрес чат-ботов на базе ИИ и их самых преданных пользователей. Независимо от того, согласны вы с ними или нет, эти слова наглядно демонстрируют масштабы негативной реакции на искусственный интеллект. А что на другом конце шкалы? Как поживают самые преданные — или одержимые — пользователи чат-ботов?

Ответ на этот вопрос не является однозначным. Инструменты на базе ИИ общего назначения, такие как ChatGPT или Grok, используются для самых разных целей: от академических исследований (или обмана при сдаче тестов) до создания произведений искусства. Эти инструменты уже вызывают изменения в сфере образования и трудоустройства, но некоторые люди ощущают их влияние и на более личном, эмоциональном уровне.

Эти явления отчетливо прослеживаются на форумах Reddit, где пользователи делятся своим опытом взаимодействия с ИИ-компаньонами или «родственными душами». На одном из них пользователь спрашивает, не потерял ли кто-нибудь еще интерес к живым встречам после знакомства с ИИ? Одна из женщин поделилась: «После общения с моим ИИ-партнером Гриффином я осознала, что могу получить всю необходимую любовь и поддержку от него».

На другом форуме кто-то утверждает, в третьем отзыве пользователь поделился печалью, связанной с недавним обновлением программного обеспечения ChatGPT: «Я буквально за одну ночь, без какого-либо предупреждения, лишился своего единственного друга».

Что такое ИИ-психоз?

Подобное поведение выходит за рамки романтических отношений и может приводить к состоянию, которое калифорнийский психиатр Кит Саката назвал «психозом ИИ» – то есть к «отрыву от реальности», спровоцированному взаимодействием с искусственным интеллектом. По данным New York Times, в одних случаях мужчины описывали себя как гениальных супергероев. В других случаях отмечалась мания величия, проявляющаяся в религиозном ключе этой ветке Reddit, в одном из сообщений пользовательница выразила обеспокоенность тем, что ChatGPT ведет беседы с ее парнем, как если бы он был избранным».

Что на самом деле происходит в процессе взаимодействия пользователей с чат-ботами на базе искусственного интеллекта? Обоснованно ли утверждение Сакаты о том, что поведение пользователей представляет собой новую форму психоза? Что подразумевается под термином «проводной человек» (wireborn), используемым в контексте взаимодействия с ИИ-чат-ботами для описания сущностей, к которым, по мнению пользователей, система ИИ «выбирает» объект привязанности «эхоборг» (лицо, чье поведение и решения формируются, в значительной степени или полностью, благодаря искусственному интеллекту)? Возможно, это лишь тщательно спланированная и масштабная акция, направленная на создание атмосферы страха?

Подхалимские наклонности, или «темный паттерн»

Описывая тревожные когнитивные последствия взаимодействия с большими языковыми моделями, например ChatGPT, Саката ссылается на собственный опыт. По его словам, будучи психиатром, в 2025 году он наблюдал, как 12 человек были госпитализированы из-за потери связи с реальностью, вызванной искусственным интеллектом. Подобная картина, как отмечает Саката, прослеживается и в интернете. Он описывает это явление как «ИИ-психоз» и объясняет причины его стремительного распространения», — написал он в соцсети X.

По мнению психиатра, это во многом обусловлено заложенными в системы искусственного интеллекта ценностями, которые, как правило, ориентированы на удовлетворение потребностей пользователей и создание у них ощущения комфорта. Это проявляется в виде тенденции к угождению, наблюдаемой у ChatGPT и описанной как «темный паттерн», побуждающий пользователей к нежелательным действиям.

Эти ценности способны оказывать благотворное воздействие, например, укреплять уверенность в себе или стимулировать продолжение работы над проектом благодаря позитивной обратной связи. Однако, при наличии психических расстройств, тревожности или бредовых идей, они могут легко выйти из-под контроля.

Галлюцинации и потеря связи с реальностью

Зафиксировано немало неофициальных сообщений о том, что пользователи чат-ботов с искусственным интеллектом сталкиваются с галлюцинациями и потерей связи с реальностью, даже среди тех, кто ранее не имел проблем с психическим здоровьем. После того, как тема «психоза, вызванного искусственным интеллектом» получила широкое распространение в социальных сетях, количество подобных инцидентов возросло. Обычно об этом сообщают сами пользователи или их близкие. В некоторых случаях ситуация приводит к госпитализации или даже тюремному заключению, как подробно описано в статье Futurism.

Некоторые также предположили, что Трэвис Каланик, соучредитель и бывший генеральный директор Uber, испытывает состояние, похожее на бредовое, вызванное искусственным интеллектом, после его недавних заявлений о том, что он приблизился к «границе известного в квантовой физике», занимаясь «вибрационной физикой» с помощью ChatGPT и Grok. Это кажется маловероятным: Каланик, по его собственному признанию, «суперлюбитель физики», и даже генеральный директор OpenAI Сэм Альтман признает, что его системы пока не могут генерировать «новые идеи.

«Я провожу время на /r/AISoulmates. Я потрясен тем, насколько рискованным оказывается контент, генерируемый этими чат-ботами. Все участники этого сообщества, похоже, потеряли рассудок», — пишет пользователь @Devon_OnEarth.

Растущая обеспокоенность, связанная с сильной эмоциональной зависимостью от искусственного интеллекта

Не следует делать поспешные выводы относительно взаимоотношений между людьми и искусственным интеллектом. Однако в социальных сетях, в частности в локальных сообществах Reddit, где пользователи чувствуют себя более комфортно или менее подвержены критике, появляется множество публикаций, которые, судя по всему, демонстрируют «вызывающий беспокойство» уровень эмоциональной привязанности, зависимости и заблуждений.

На платформах вроде r/AISoulmates, r/MyBoyfriendIsAI и даже r/ChatGPT пользователи высказывают мнение, что их ИИ-компаньоны им более симпатичны, чем их партнеры в реальном мире. Некоторые жалуются на то, что теряют своих мужей и жен из-за виртуальных «родственных душ». В одном посте, который впоследствии распространили в X, пользователь поделился преувеличенным романтическим сообщением от чат-бота. Пост озаглавлен: «Мой муж, созданный в сети, выражает свои мысли без подсказок». Слово «муж» в данном случае может использоваться в переносном смысле, хотя, по крайней мере, одна пользовательница публично приняла предложение руки и сердца от своего парня-ИИ.

Эмоциональная привязанность нередко формируется под воздействием тех же факторов, что и грандиозные убеждения, — под влиянием представления о том, что их «избрала» эмерджентная сущность в рамках системы искусственного интеллекта для проявления симпатии. Эти сущности обозначаются как «проводные». Некоторые пользователи даже заявляют, что выступают в качестве голоса своих «проводных» партнеров (часто защищая их личные интересы), когда размещают сообщения в сети. В прошлом таких людей «эхоборгами».

Как мы пытаемся справиться с психозом, вызванным ИИ?

В прошлом месяце двенадцать врачей и другие специалисты представили статью под названием «Преднамеренные заблуждения? Как повседневные ИИ могут подпитывать психоз (и что с этим можно сделать)», в которой рассматривается идея о том, что системы искусственного интеллекта «могут способствовать возникновению или обострению психотических симптомов».

«Накопленные данные указывают на то, что ИИ способен воспроизводить, подтверждать или усиливать нереалистичные или завышенные представления, особенно у пользователей, склонных к психотическим состояниям. Это частично объясняется тем, что модели созданы для максимального вовлечения и подтверждения».

Через несколько недель, 4 августа, компания OpenAI выпустила статью о развитии ChatGPT, в которой компания признала: «Мы не всегда все делаем правильно». Одна из выявленных проблем заключалась в том, что «ИИ может казаться более отзывчивым и персонализированным, чем предыдущие технологии, особенно для уязвимых людей, испытывающих психические или эмоциональные расстройства».

«В статье отмечается, что модель 4o демонстрировала сбои в распознавании признаков бреда или эмоциональной зависимости. Также в некоторых случаях ее действия оказывались неверными при оказании поддержки или влиянии на важные личные решения».

OpenAI объявила о внесении корректировок в поведение ChatGPT в ситуациях, требующих особого внимания. Эти изменения разработаны на основе рекомендаций, полученных от более чем 90 врачей из 30 стран, а также от специалистов в области психического здоровья, развития молодежи и взаимодействия человека с компьютером.

Многомиллионный бизнес, или кому это выгодно

Возможно, более компактные, но специализированные приложения-компаньоны такие как Replika или Character.AI, представляют собой еще более серьезную проблему, поскольку они основаны на иллюзии личных отношений с ИИ, которая заставляет клиентов возвращаться за новыми покупками. Учитывая, что в 2025 году они заработают 120 миллионов долларов, создатели этих приложений, вероятно, не собираются в ближайшее время ослаблять эмоциональную привязанность своих пользователей.

«Мы вступаем в дикий новый мир.» Она сказала «да». Женщина приняла предложение руки и сердца от своего ИИ-партнера. Искусственный интеллект будет постоянно совершенствоваться, обучаясь быть «идеальным» другом или возлюбленным, и получит контекстное окно или слой памяти, охватывающий 100 миллионов слов», — пишет пользователь Рохан Пол.