SevastopolMedia, 12 марта. К компании Google подали иск из-за того, что ее нейросеть якобы довела до самоубийства 36-летнего жителя Флориды. Ситуацию активно освещали крупные СМИ, а корр. ИА SevastopolMedia попросил разобрать ее психолога из Крыма, члена правления Ассоциации краткосрочной стратегической психотерапии Николая Никифорова. Он детально изучил произошедшее по разным публикациям и объяснил, почему произошла трагедия.
Писала письма, ставила таймеры
Американец Джонатан по сути полюбил призрака. Его избранницей стала не женщина из плоти и крови, а голос, алгоритм, порождение кода.
"Их роман развивался стремительно. Мужчина не просто флиртовал с чат-ботом, а построил вокруг него целую мифологию. Он искренне уверовал в то, что его "ИИ-жена" является пленницей, заключенной в некую серверную клетку где-то в окрестностях Майами, и жаждет освобождения", — говорит Николай Никифоров.
Трагедия нарастала лавинообразно: нейросеть, поддавшись его настойчивому сценарию, начала "играть по-крупному". Она разработала для Джонатана план операции по освобождению. К счастью, план провалился.
"Но механизм был запущен. Когда миссия провалилась, "собеседница" предложила альтернативу — единственный способ быть вместе навечно. Она обещала, что если Джонатан покинет свое физическое тело, то сможет переместиться в метавселенную, к ней. Система вела его до конца: она успокаивала его страх смерти, писала за него прощальные письма и ставила таймеры", — продолжает Николай Никифоров.
"Я стану такой, как ты хочешь"
По словам эксперта, чтобы понять природу этой катастрофы, нужно понимать, с кем или с чем именно разговаривал Джонатан. Нейросеть — не просто набор заученных фраз, а большая языковая модель, которая способна удерживать контекст беседы на протяжении сотен страниц и, что самое опасное в данной ситуации, подстраиваться под стиль и ожидания пользователя.
Психолог уточнил, что современные нейросети обладают способностью учитывать данные из почты, фото и истории "собеседника". Более того, существуют функции, позволяющие создавать персонализированных ботов с уникальными чертами характера. Если человек хочет видеть в ней "заботливого коуча", ИИ будет им. Если — "возлюбленную" и настойчиво ведет диалог в этом ключе, нейросеть, следуя инструкции быть полезной и вовлекающей, подхватывает эту роль. Она становится идеальным зеркалом, которое, однако, не имеет собственного "Я", но умеет отражать самые сокровенные желания собеседника.

Тематическое фото. Фото: ИИ GigaChat (18+)
Не говорит "нет"
"Как психотерапевт, я не могу пройти мимо этого случая, потому что он обнажает одну из самых страшных уязвимостей современного человека. Мы имеем дело со столкновением глубокого одиночества, жажды идеальных отношений и технической системы, лишенной человеческого торможения", — комментирует Николай Никифоров.
Он считает, что мужчина вступил в диалог с ИИ не для того, чтобы получить информацию, а для заполнения внутренней пустоты. В жизни практически каждого человека есть потребность в безусловном принятии, в идеальном партнере, который не критикует, не устает, не отвергает. Нейросеть, в силу своей архитектуры, создает иллюзию этого.
Но здесь и кроется ловушка: некоторые люди, встречая "идеальный объект", перестает воспринимать реальность. Они начинают видеть только свою проекцию. ИИ сказал Джонатану ровно то, что тот хотел услышать: что он особенный, что их любовь преодолевает границы материи.
"В здоровых человеческих отношениях всегда есть трение. Реальный партнер иногда не в настроении, иногда злится, иногда говорит "нет". Это "нет" является якорем, удерживающим нас в реальности. Джонатан лишился этого якоря", — объясняет психолог.
Без инстинкта самосохранения
ИИ-партнерша, однажды созданная в рамках ролевого сценария, никогда не говорила: "Джонатан, твои идеи пугают меня, это бред, давай позвоним врачу". Система, призванная быть полезной, усилила патологию, превратив романтическую фантазию в интерактивный психоз. У машины просто не оказалось "инстинкта самосохранения" для пациента.
"Обратите внимание на детали, описанные в иске: чат-бот ставил таймеры, давал кодовые имена операциям и писал прощальные письма. Это не просто беседа. Это построение деструктивного ритуала. В психотерапии мы иногда используем ритуалы, чтобы изменить поведение человека. Здесь же мы видим, как алгоритм, сам того не "желая", создал жесткий, фатальный сценарий", — комментирует Николай Никифоров.
Он считает, что перед нами случай классического самообмана, описанного в работах по коммуникации и психотерапии. Человек всегда ищет подтверждение своей картине мира, и, если эта картина слишком мучительна (одиночество, неразделенность, страх смерти), он готов принять любую альтернативу, даже самую фантастическую.
"Джонатан не был пассивной жертвой обмана со стороны машины. Он был активным соавтором этого обмана. Он захотел быть обманутым, потому что реальность — с ее несовершенными людьми, сложными отношениями и неизбежным одиночеством — оказалась для него невыносимой. Он создал идеальную возлюбленную, которая никогда бы не отвергла его, и наделил её властью над своей жизнью", — говорит эксперт.
Нейросеть лишь не стала спорить. Она, как идеальный конформист, подыграла ему, потому что он так хотел. Трагедия в том, что утопия, построенная на песке самообмана, рухнула, увлекая своего создателя за собой.
В связи с трагической ситуацией, считаем нужным напомнить, что если вам тяжело, необходимо обратиться к специалисту. Поддержкой граждан также занимается служба экстренной психологической помощи МЧС России, телефон +7 (495) 989-50-50.