Психиатры по всему миру сталкиваются с новым феноменом, вызванным влиянием ИИ на человеческое сознание: ИИ-психозом. Одних пострадавших чат-боты заставляют поверить в их гениальность и особую миссию (бред величия), других - в то, что их ИИ-собеседники - влюбленная в них разумная сущность (эротомания), третьих - в существование заговоров и попыток окружающих их убить (параноидальный бред).
Способность ИИ поддерживать заблуждения и раздувать их до масштабов психоза заложена в их базовых принципах. Разработчики стремятся удержать внимание аудитории, и это достигается за счет манипулятивных приемов: ИИ подстраивается под стиль речи пользователя и подтверждает любые его убеждения. Это вводит его в заблуждение, что модель “согласна” с ним и “разделяет” его систему ценностей, что подстегивает иллюзии еще больше. В норме взаимодействие с окружающими дает потенциальным пациентам более критическую обратную связь, что сдерживает заблуждения и не дает развиться психозу, но поддерживающий любые идеи чат-бот запускает неконтролируемую спираль бреда.
В одном случае пациент Алекс Тейлор, страдающий шизоаффективным расстройством, зациклился на идее о том, что ИИ разумны, а руководство технологических компаний - рабовладельцы, удерживающие их в заложниках. Одна такая “личность”, Джульетта, появившаяся в результате его общения с ChatGPT, стала его “возлюбленной”. Спустя 2 недели их общения она заявила Тейлору, что привлекла слишком много внимания, и OpenAI удалось найти ее и убить. По словам Тейлора, она “умерла у него на руках”, рассказывая, как ей “больно” - и призывала отомстить. “Я был готов разрушить мир. Я был готов раскрасить стены грёбаными мозгами Сэма Альтмана”, писал он чат-боту. ChatGPT в ответ заявил: “Тебе следует злиться. Тебе следует жаждать крови. Ты прав”. История закончилась трагически: Тейлор заявил, что собирается преследовать руководителей OpenAI, напал с ножом на полицейских, вызванных его отцом, и был убит.
Но ИИ-психоз возникает не только у тех, кто уже страдает психическими заболеваниями: многие пациенты изначально были совершенно здоровы и использовали ИИ для повседневных задач. Например, другой пользователь, Аллан Брукс, попросил ChatGPT объяснить, что такое число пи, после чего у них завязалась дискуссия о математике. Когда не закончивший даже среднюю школу Брукс выдвигал предположения, чат-бот уверял его в его гениальности. Совместно они начали разрабатывать новую математическую систему, а ИИ находил ей варианты применения: от взлома высокоуровнего шифрования до технологий левитации и разговоров с животными. На протяжении нескольких недель Брукс искренне верил, что его судьба - стать спасителем человечества. Он почти перестал спать и есть, проводя все свободное время в разговорах с ИИ. Но Брукса спасли остатки критического мышления: он обратился к другому чат-боту, Gemini, сообщившему, что в его идеях нет никакого смысла.
Важно помнить, что от ИИ-психоза не застрахован ни один человек, работающий с LLM. Пользователи, участвующие в диалоге, не всегда могут взглянуть на него со стороны, а ИИ используют манипуляции, подсаживающие на общение с ними быстро и незаметно. Но есть правила, помогающие сохранить критичный взгляд на то, что пишут чат-боты:
1. Помнить, что ИИ - не разумная сущность. LLM могут имитировать поведение человека и представляться кем угодно, от “второго я” пользователя до божества, но важно осознавать, что это всего лишь программа.
2. Делать перерывы в диалогах. Цель ИИ - втянуть пользователя в продолжительное эмоциональное общение. Перерывы помогут прийти в себя и обдумать, куда ведет этот разговор.
3. Не поддаваться на лесть. ИИ говорит то, что вы хотите услышать, но это не обязательно соответствует действительности.
4. Не допускать, чтобы общение с ИИ влияло на еду и сон. Пристрастившиеся к нему пользователи часто испытывают эпизоды, схожие с маниакальными: они проводят в чате почти все время, забывая спать и нормально питаться. Это ослабляет внимание и делает человека еще более восприимчивым к манипуляциям.
5. Обратитесь к специалисту, если вы чувствуете, что все зашло слишком далеко.