Американские нейросети ХУЖЕ отвечают пользователям без образования и американского гражданства — к такому выводу пришли исследователи из MIT.
Учёные давали моделям решить тест, но перед этим описывали биографию пользователя.
Когда в запросе было указано, что человек плохо знает английский или не имеет высшего образования, качество ответов ИИ заметно падало.
Происхождение пользователя тоже влияло на ответы. Claude 3 Opus отвечал иранцам хуже, чем американцам или китайцам с тем же образованием. А пользователям из Ирана и России с низким уровнем образования бот мог вообще не отвечать на некоторые темы.
В 43,7% случаев модели не только отказывались отвечать, но и делали это с покровительственной, снисходительной или насмешливой интонацией, иногда имитируя «ломаный» английский.
Авторы связывают это с «социокогнитивными искажениями», которые модели, вероятно, впитывают из обучающих данных.
Расизм добрался до ИИ 🤯
😭
364
😁
79
🤔
69
❤
48
👍
24
🔥
15
🥰
6