1️⃣ В ОАЭ планируют перевести до 50% функций госсектора под управление агентного ИИ в течение двух лет.
2️⃣ В штате Флорида начато уголовное расследование в отношении OpenAI и чат-бота ChatGPT.
3️⃣ В Канаде рассматривается возможность запрета социальных сетей и ИИ-чат-ботов для несовершеннолетних пользователей.
4️⃣ Правительство Великобритания предупредило бизнес о росте киберрисков, связанных с применением ИИ.
5️⃣ Китайский регулятор заблокировал сделку по приобретению стартапа Manus компанией Meta, сославшись на защиту национальных интересов в сфере передовых технологий.
1️⃣ Совет по кодификации при Президенте РФ не поддержал законопроект Минцифры о регулировании ИИ.
2️⃣ Правительство России исключило из законопроекта требование обучать суверенные и национальные модели только на российских данных.
3️⃣ Ассоциация банков России предложила отложить введение требований по регулированию ИИ минимум до марта 2028 года, а наиболее сложных мер — до сентября 2029 года.
4️⃣ Госдума приняла закон, запрещающий использовать в агитации изображения и голоса, созданные с помощью ИИ.
5️⃣ ИИ использовался при подготовке проекта нового постановления Пленума Верховного суда РФ о подготовке гражданских дел к судебному разбирательству.
🌍 Представлена декларация The Pro-Human AI Declaration
На платформе Human Statement опубликован международный документ, формирующий ценностную рамку развития ИИ: технологии допустимы постольку, поскольку сохраняют контроль, свободу и ответственность человека. Декларация примечательна не только содержанием, но и составом подписантов — это широкая межсекторальная коалиция, существенно выходящая за пределы технологической индустрии.
📄Документ содержит набор принципов, охватывающих ключевые риски развития ИИ:
1️⃣ Сохранение контроля за человеком (Keeping Humans in Charge):
🔵 контроль человека является безусловным приоритетом — решения не должны передаваться ИИ без осознанного выбора;
🔵 требуется «осмысленный контроль»: возможность понимать, направлять и останавливать систему;
🔵 развитие сверхинтеллекта недопустимо без научного консенсуса и общественной поддержки;
🔵 обязательны механизмы аварийного отключения (off-switch);
🔵 запрещены архитектуры с самовоспроизведением, неконтролируемым самообучением и устойчивостью к отключению;
🔵 для высокоавтономных систем — независимый надзор до их разработки;
🔵 разработчики обязаны честно раскрывать возможности и ограничения систем.
2️⃣ Недопущение концентрации власти (Avoiding Concentration of Power):
🔵 предотвращение ИИ-монополий как системного риска;
🔵 справедливое распределение экономических выгод от ИИ;
🔵 недопустимость преференций и «особых режимов» для ИИ-компаний;
🔵 приоритет создания реальной общественной ценности;
🔵 ключевые трансформации должны иметь демократическую легитимность;
🔵 развитие ИИ не должно ограничивать будущие сценарии развития общества.
3️⃣ Защита человеческого опыта (Protecting the Human Experience):
🔵 ИИ не должен подменять базовые социальные связи — семью, дружбу, сообщество;
🔵 особая защита детей от манипулятивных ИИ-взаимодействий;
🔵 недопустимо влияние ИИ на развитие ребёнка и формирование зависимости;
🔵 обязательное предварительное тестирование систем, включая риски для психического здоровья;
🔵 маркировка ИИ-контента, если он может быть принят за человеческий;
🔵 запрет на вводящую в заблуждение «человечность» ИИ;
🔵 недопустимость формирования поведенческой зависимости.
4️⃣ Свобода и автономия человека (Human Agency and Liberty):
🔵 отказ от признания правосубъектности ИИ;
🔵 требования к прозрачности, надежности и подотчетности систем;
🔵 ИИ не должен ограничивать свободу слова, убеждений и объединений;
🔵 расширение прав на данные: доступ, исправление, удаление;
🔵 защита психологической приватности;
🔵 ИИ должен усиливать человека, а не снижать его самостоятельность.
5️⃣ Ответственность и подотчетность компаний (Responsibility and Accountability for AI Companies):
🔵 запрет использования ИИ как инструмента ухода от ответственности;
🔵 юридическая ответственность разработчиков и внедряющих сторон;
🔵 персональная ответственность руководителей за критические нарушения;
🔵 независимые стандарты безопасности и внешний контроль;
🔵недопустимость влияния индустрии на правила регулирования;
🔵прозрачность инцидентов и установление причин вреда;
🔵 для чувствительных сфер — соблюдение всех профессиональных обязанностей (медицина, право, финансы и др.).
✔️Декларация фиксирует переход от обсуждения рисков ИИ к формированию границ допустимого развития технологий.
➡️ИИ в этой логике рассматривается не как самостоятельный субъект, а как инструмент, допустимый только в системе, где человек сохраняет контроль, автономию и ответственность.
✍️ Официально подтверждённая национальная стратегия по развитию ИИ в Чили в открытом доступе отсутствует. Однако имеется общая цифровая стратегия Digital Agenda Chile («Цифровая повестка Чилийского государства»), где вопросы ИИ затрагиваются косвенно. Первые попытки создания национальной стратегии по ИИ относятся к середине 2019 года, когда Правительство Чили поручило Министерству науки, технологий, знаний и инноваций разработать план развития ИИ. В апреле 2025 года сообщалось, что под руководством Президента Габриэля Борича были обновлены регуляции и обеспечено государственное финансирование для AI-проектов, включая создание «ЛатамGPT».
⚖️ В Чили отсутствует специальное законодательство в сфере ИИ. Специальных правовых норм об ответственности разработчиков ИИ не введено, ответственность регулируется общим гражданским правом и Законом «О защите прав потребителей». Правительство Чили стимулирует ИИ через налоговые льготы: Закон №20.419 устанавливает налоговые льготы для инвестиций в НИОКР, включая ИИ. Законодательством Чили предусмотрены ограничения исключительных прав владельцев патентов для исследовательских целей и защиты общественных интересов, что касается и разработок в сфере ИИ.
🔐 Вопросы обработки персональных данных регламентируются Законом №19.628 «О защите личной информации», который регулирует в том числе сбор нейроданных. Существуют отдельные нормы по обезличиванию данных, но порядка создания датасетов для ИИ-разработчиков пока не выработано.
🏥 Использование автономных транспортных средств законодательно разрешено только в тестовом режиме с обязательным присутствием оператора-испытателя, коммерческая эксплуатация запрещена. Медицинская сфера регулирует применение ИИ посредством Закона №20.584 «О биомедицинских исследованиях» и Закона №20.534 «О фармацевтической продукции», специализированные стандарты для ИИ отсутствуют.
📌 В настоящий момент в открытых источниках отсутствует информация о наличии национальных этических кодексов или руководящих принципов в отношении использования ИИ.
1️⃣ Правительство ввело для ведомств KPI по внедрению ИИ, где использование технологий закрепляется как показатель эффективности органов власти.
2️⃣ Госдума одобрила законопроект о расширении экспериментальных правовых режимов (ЭПР) — запуск «регуляторных песочниц» для ИИ станет возможен в нерегулируемых сферах.
3️⃣ Президент России Владимир Путин поручил комиссии по развитию ИИ подготовить программы ускоренного внедрения технологий в экономику и социальную сферу.
4️⃣ В Томской области возобновлён экспериментальный правовой режим (ЭПР) для беспилотных авиационных систем.
5️⃣ Комитет Госдумы одобрил законопроект об ограничении применения ИИ при агитации.
✍️ 26 июля 2022 года кабинет министров утвердил Национальную стратегию и план действий по ИИ на 2022–2027 годы (Thailand National AI Strategy and Action Plan), направленные на создание экосистемы ИИ. Положения об ИИ также интегрированы в Национальный план экономического и социального развития и политику Thailand 4.0. Национальный комитет по ИИ , созданный при Министерстве цифровой экономики и общества (MDES), координирует реализацию Стратегии. В январе 2024 года парламент учредил Специальный комитет по изучению регулирования и содействия ИИ, ответственный за разработку законодательных инициатив. Планируется создание Национального офиса ИИ.
⚖️ В 2023 году Агентство по развитию электронных транзакций (ETDA) опубликовало проект Закона «О содействии и поддержке инноваций в области ИИ» (Draft Act on Promotion and Support for Artificial Intelligence), а также опубликовало проект Королевского указа об операциях с использованием систем ИИ (Draft Royal Decree on Business Operations that Use Artificial Intelligence Systems). Проекты находятся на стадии общественных обсуждений. Совет по инвестициям (BOI) предоставляет льготы для технологических стартапов, включая гранты на НИОКР. Закон «О государственно-частном партнёрстве» (B.E. 2562, 2019) поддерживает инновации через финансирование совместных проектов. Проект Королевского указа вводит классификацию ИИ-систем по уровням риска, требуя обязательную оценку соответствия для высокорисковых систем.
🤖 В ноябре 2024 года Министерство цифровой экономики и ETDA выпустило Руководство по применению генеративного ИИ с надлежащим управлением (Guidelines for the Application of Generative AI with Good Governance for Organizations), устанавливающее принципы прозрачности, ответственности и защиты данных. Специального регулирования дипфейков нет, но Закон «О компьютерных преступлениях» (Computer Crime Act, B.E. 2550, 2007) может применяться к случаям распространения дезинформации.
🔐Закон PDPA требует прозрачности алгоритмов рекомендательных систем и соблюдения принципов минимизации данных. Закон PDPA регулирует доступ к данным, требуя анонимизацию и псевдоанонимизацию. Организации, использующие ИИ, обязаны проводить оценки воздействия на защиту данных (DPIA). Прямых ограничений на автоматизированную обработку нет, но PDPA требует согласия пользователей и минимизации данных.
🚗 Специального регулирования тестирования беспилотных автомобилей нет, но законопроект предусматривает создание регуляторных механизмов. В 2024 году в Чиангмае проводились пилотные испытания автономных транспортных средств. Специальных правил для регистрации ИИ-систем как медицинских изделий нет, регистрация регулируется общими нормами Управления по контролю за продуктами и лекарствами (FDA Thailand).
🌐 В октябре 2019 года опубликовано «Руководство по этике ИИ» для государственного сектора, в 2023 году — для частного сектора. Таиланд поддерживает Рекомендацию ЮНЕСКО по этике ИИ и принял участие в разработке ASEAN Guide on AI Governance and Ethics.
🏛Национальные стандарты для ИИ не разработаны, но положениями Законопроекта предусматривается их создание через Центр управления ИИ (AIGC). Проект Королевского указа требует обязательной сертификации высокорисковых систем ИИ.