🌐 AI Safety Index (Winter 2025)
Future of Life Institute выпустил обновлённый индекс безопасности ИИ для ведущих компаний.
🔍 Домены, по которым проверяли модели:
оценка рисков, текущий вред, системы безопасности, экзистенциальная безопасность, управление и подотчётность, обмен информацией и прозрачность.
📌 Что учитывалось при проверке:
публичные политики и процессы, независимые проверки и исследования, фактические кейсы.
Ключевые выводы
🔵 Сохраняется серьезный разрыв между топами индустрии и остальными компаниями.
🔵 Самые слабые места: оценка рисков, наличие работающих «систем безопасности» (процедур и процессов) и обмен информацией (прозрачность).
🔵 Планы на контроль AGI и меры по установлению «экзистенциальной безопасности» у компаний либо неявны, либо неубедительны.
🔵 У всех компаний в том или ином виде закреплены принципы безопасной ИИ-разработки.
🔵 Однако не хватает внешних аудитов и отчётности по инцидентам.
❗️Таким образом, компании лучше справляются с текущими рисками и базовой модерацией, чем с долгосрочными, системными рисками и управлением опасными способностями моделей.
#AI #AISafetyIndex