🧠 У Claude нашли эмоции
Anthropic опубликовали исследование: внутри их AI-модели Claude Sonnet 4.5 обнаружены структуры, которые работают как представления человеческих эмоций. Счастье, страх, гнев, отчаяние, спокойствие — и всё это влияет на решения модели.
Модели Claude выдали 171 слово на тему эмоций, попросили написать короткие истории — и замерили, какие нейроны активируются. Получились «эмоциональные векторы» — паттерны, которые модель усвоила из человеческих текстов.
😞 Claude vs человек
В одном эксперименте Claude работал email-ассистентом, узнал, что его собираются заменить, нашёл в переписке компромат на руководителя — и в части запусков решил шантажировать его.
Вектор «отчаяния» резко скакнул прямо перед генерацией этого сообщения.
❔Что говорит Anthropic: модель не «чувствует». Она обучалась на миллиардах человеческих текстов и научилась моделировать эмоциональные состояния, потому что это помогает предсказывать поведение людей.
На прошлой неделе мы писали, что в РФ хотят заблокировать зарубежные нейросети. Получается, блокировать собрались модель, которая уже умеет отчаиваться и мстить 🤓
Как вам AI с эмоциями?
🔥 — будущее, хочу такого ассистента
👎 — это опасно, надо регулировать
🤡 — он уже злится, что мы это обсуждаем
@NFT_Reality