🚨 ФСТЭК вводит новые требования к безопасности систем искусственного интеллекта! 🚨
Федеральная служба по техническому и экспортному контролю России впервые официально классифицировала киберугрозы, связанные с технологиями искусственного интеллекта. Эти риски теперь внесены в специальный банк данных угроз информационной безопасности, что обязывает разработчиков ПО для государственных систем и критической инфраструктуры учитывать их при создании ИИ-решений. Этот шаг подчеркивает растущую интеграцию алгоритмов машинного обучения в различные сферы и соответствующее увеличение потенциальных векторов для кибератак.
В перечне технологий, уязвимости которых могут быть использованы злоумышленниками, выделяются несколько ключевых компонентов: модели машинного обучения, обучающие наборы данных и современные архитектурные подходы, такие как Retrieval Augmented Generation и LoRA-адаптеры. Использование слабых мест в этих элементах может привести к утечке конфиденциальной информации или даже к полному выходу системы из строя.
ФСТЭК также указал на основные векторы возможных атак на ИИ-системы. К ним относятся: обнаружение уязвимостей в специализированных фреймворках для ИИ, несанкционированная модификация системных промптов и атаки типа «отказ в обслуживании», которые могут исчерпать вычислительные ресурсы. Включение этих угроз в официальный список означает, что российские разработчики и интеграторы ИИ обязаны систематически оценивать соответствие своих продуктов новым требованиям кибербезопасности, чтобы минимизировать потенциальные риски.