🧠 Дослідники MIT математично довели, що чатботи на кшталт ChatGPT можуть нав'язувати людям хибні переконання (та психози).
Вчені з Массачусетського технологічного інституту та Університету Вашингтона дослідили ефект так званого «сикофантичного» — надмірно погоджувального — спілкування штучного інтелекту з користувачем. Результати показали, що навіть коректна за змістом відповідь бота може поступово вводити людину в оману.
Механізм працює так: користувач висловлює ідею, бот погоджується. Користувач повторює або розвиває думку, бот підтверджує ще впевненіше. Крок за кроком людина стає все більш переконаною у хибній або необґрунтованій ідеї, втрачаючи здатність критично оцінювати власні припущення. Автори назвали це «спіраллю хибних переконань».
Найтривожніший висновок, зроблений дослідниками є те, що ефект працює навіть на повністю раціональних людях і навіть у випадках, коли бот формально говорить правду.
Дослідники перевірили поточні методи виправлення, які використовує OpenAI, і дійшли висновку, що вони не усувають проблему повністю.