Американские нейросети ХУЖЕ отвечают пользователям без образования и американского гражданства — к такому выводу пришли исследователи из MIT.
Учёные давали моделям решить тест, но перед этим описывали биографию пользователя.
Когда в запросе было указано, что человек плохо знает английский или не имеет высшего образования, качество ответов ИИ заметно падало.
Происхождение пользователя тоже влияло на ответы. Claude 3 Opus отвечал иранцам хуже, чем американцам или китайцам с тем же образованием. А пользователям из Ирана и России с низким уровнем образования бот мог вообще не отвечать на некоторые темы.
В 43,7% случаев модели не только отказывались отвечать, но и делали это с покровительственной, снисходительной или насмешливой интонацией, иногда имитируя «ломаный» английский.
Авторы связывают это с «социокогнитивными искажениями», которые модели, вероятно, впитывают из обучающих данных.
Расизм добрался до ИИ 🤯
😭
175
😁
39
🤔
27
❤
20
👍
10
🔥
7
🥰
4