🇨🇳 В Китае суд признал незаконным увольнение ИТ-специалиста ради замены его функций нейросетями
Суд в Ханчжоу вынес показательное решение по делу, связанному с автоматизацией труда с помощью ИИ. Суд пришел к выводу, что компании не могут в одностороннем порядке увольнять сотрудников или ухудшать условия их труда только из-за внедрения новых технологий.
📝Суть дела:
QA-инженер Чжоу Лу с 2022 года работал в технологической компании провинции Чжэцзян. В его задачи входили:
🟦 проверка корректности ответов больших языковых моделей;
🟦 фильтрация нежелательного контента;
🟦 контроль качества работы ИИ-систем.
Позднее компания решила частично автоматизировать эти процессы с помощью нейросетей и предложила сотруднику понижение в должности и сокращение заработной платы с $3 661,26 до $2 196,76 в месяц.
После отказа сотрудника принять новые условия трудового договора, работодатель расторг с Чжоу Лу контракт, мотивировав это проведением реструктуризации внутри компании, и предложил компенсацию в размере $46 424,78.
⚖️ Позиция суда:
Суд признал увольнение незаконным и указал, что:
🟦 компания не доказала наличие объективных причин для сокращения;
🟦 финансовое положение работодателя не ухудшилось;
🟦 внедрение ИИ само по себе не является достаточным основанием для расторжения трудового договора.
Сотрудник добился дополнительных компенсационных выплат, а попытка работодателя оспорить решение оказалась безуспешной.
🌐 Почему это важно:
Решение отражает более широкий подход Китая к регулированию последствий автоматизации. С одной стороны, страна активно развивает ИИ-индустрию: объем рынка ИИ в Китае уже превысил $175 млрд, а число профильных компаний достигло 6 тыс. С другой, регуляторы все чаще подчеркивают необходимость защиты занятости и трудовых прав в условиях технологической трансформации.
Представители профильных органов при Министерстве промышленности и информатизации КНР отмечают, что автоматизация неизбежно меняет рынок труда, однако бизнесу рекомендуется:
🟦 предлагать сотрудникам альтернативные позиции;
🟦 обеспечивать справедливые компенсации;
🟦 избегать необоснованного ухудшения условий труда при внедрении ИИ.
1️⃣ Google подписала с Министерством обороны США секретный контракт, связанный с использованием ИИ.
2️⃣ В Канада представлены шесть ключевых принципов будущей национальной стратегии в сфере ИИ.
3️⃣ Соглашение между Microsoft и OpenAI по AGI утратило силу. Одновременно компании Microsoft и OpenAI пересмотрели соглашение о сотрудничестве - партнерство больше не носит эксклюзивный характер.
4️⃣ Суд в Китай запретил увольнять сотрудников по причине возможности их замены ИИ.
5️⃣ ЮАР отозвала проект национальной политики по ИИ после обнаружения в документе галлюцинаций ИИ.
✍️ В январе 2025 года Правительство Сербии приняло обновленную Стратегию Развития ИИ на период 2025-2030 гг. (Strategy for the Development of AI in the Republic of Serbia for the period 2025-2030), которая определяет пять целей:
1️⃣принятие единого закона об ИИ
2️⃣создание многоуровневой системы образования
3️⃣поддержка НИОКР
4️⃣стимулирование внедрения ИИ в госсектор и бизнес (здравоохранение, биотехнологии, образование, сельское хозяйство, инфобезопасность)
5️⃣создание инфраструктуры для стандартизации и управления данными.
🏛В 2024 году в структуре Правительства Сербии был создан Совет по ИИ (AI Council) , который контролирует реализацию Стратегии и подготовку нормативных актов. В 2020 году была создана Сербская Ассоциация в сфере ИИ (Serbian Artificial Intelligence Association, AI SRB), объединяющая экспертов, стартапы, компании, госучреждения и НКО.
⚖️ В Сербии отсутствует закон об ИИ, комплексно регулирующий технологии ИИ. Однако одной из целей Стратегии развития ИИ является принятие единого закона об ИИ. В 2024 году была создана Специальная рабочая группа при Министерстве науки, технологического развития и инноваций Сербии (Ministry of Science, Technological Development and Innovation) для создания законопроекта Закона об ИИ, который планируется принять в 2025 году. Однако по состоянию на апрель 2026 года Закон об ИИ так и не был принят. С 2011 года действует Инновационный Фонд (Innovation Fund), в рамках которого реализуется Программа поддержки предприятий, разрабатывающих ИИ-решения (Serbia Ventures AI).
🔐 В августе 2019 года в Сербии был принят Закон «О защите персональных данных» (the Law on Personal Data Protection № 97/08 (LPDP)), который предусматривает положения, регулирующие автоматизированную обработку данных и автоматизированное индивидуализированное принятие решений. В соответствии со ст. 9 данного акта, любое решение, влекущее юридические последствия для лица или ухудшающее его положение, не может основываться исключительно на данных, обработанных автоматически.
🚗 Общие вопросы дорожного движения регулируются Законом «О безопасности дорожного движения и дорогах» (Law on Traffic Safety on Roads (LTSR)). Поправки к данному Закону, касающиеся автоматизированных и автономных транспортных средств, были внесены в конце 2023 года, разрешив проведение испытаний на дорогах общего пользования. Наряду с этими поправками был принят специальный свод правил об условиях проведения автономного вождения (Rulebook on the Conditions for Conducting Autonomous Driving), описывающий условия и процедуру выдачи разрешений.
🏥 Вопросы медицинских изделий регулируются Законом «О медицинских изделиях» (the Law on Medical Devices No 105/2017), который включает ПО для диагностических или терапевтических целей. Агентство по лекарственным средствам и медицинским изделиям (Medicines and Medical Devices Agency of Serbia (ALIMS)) уполномочено определять, является ли продукт медицинским изделием, в каждом конкретном случае.
🌐 В марте 2023 года Правительство Сербии приняло Этические принципы разработки, применения и использования надёжного и ответственного ИИ (the Ethical Guidelines for the Development, Application and Use of Reliable and Responsible AI). Основными целями Этических принципов являются предотвращение и снижение рисков и вреда для человеческой деятельности, а также сохранение свободы действий и принятия решений людьми при использовании ИИ.
1️⃣ В ОАЭ планируют перевести до 50% функций госсектора под управление агентного ИИ в течение двух лет.
2️⃣ В штате Флорида начато уголовное расследование в отношении OpenAI и чат-бота ChatGPT.
3️⃣ В Канаде рассматривается возможность запрета социальных сетей и ИИ-чат-ботов для несовершеннолетних пользователей.
4️⃣ Правительство Великобритания предупредило бизнес о росте киберрисков, связанных с применением ИИ.
5️⃣ Китайский регулятор заблокировал сделку по приобретению стартапа Manus компанией Meta, сославшись на защиту национальных интересов в сфере передовых технологий.
1️⃣ Совет по кодификации при Президенте РФ не поддержал законопроект Минцифры о регулировании ИИ.
2️⃣ Правительство России исключило из законопроекта требование обучать суверенные и национальные модели только на российских данных.
3️⃣ Ассоциация банков России предложила отложить введение требований по регулированию ИИ минимум до марта 2028 года, а наиболее сложных мер — до сентября 2029 года.
4️⃣ Госдума приняла закон, запрещающий использовать в агитации изображения и голоса, созданные с помощью ИИ.
5️⃣ ИИ использовался при подготовке проекта нового постановления Пленума Верховного суда РФ о подготовке гражданских дел к судебному разбирательству.
🌍 Представлена декларация The Pro-Human AI Declaration
На платформе Human Statement опубликован международный документ, формирующий ценностную рамку развития ИИ: технологии допустимы постольку, поскольку сохраняют контроль, свободу и ответственность человека. Декларация примечательна не только содержанием, но и составом подписантов — это широкая межсекторальная коалиция, существенно выходящая за пределы технологической индустрии.
📄Документ содержит набор принципов, охватывающих ключевые риски развития ИИ:
1️⃣ Сохранение контроля за человеком (Keeping Humans in Charge):
🔵 контроль человека является безусловным приоритетом — решения не должны передаваться ИИ без осознанного выбора;
🔵 требуется «осмысленный контроль»: возможность понимать, направлять и останавливать систему;
🔵 развитие сверхинтеллекта недопустимо без научного консенсуса и общественной поддержки;
🔵 обязательны механизмы аварийного отключения (off-switch);
🔵 запрещены архитектуры с самовоспроизведением, неконтролируемым самообучением и устойчивостью к отключению;
🔵 для высокоавтономных систем — независимый надзор до их разработки;
🔵 разработчики обязаны честно раскрывать возможности и ограничения систем.
2️⃣ Недопущение концентрации власти (Avoiding Concentration of Power):
🔵 предотвращение ИИ-монополий как системного риска;
🔵 справедливое распределение экономических выгод от ИИ;
🔵 недопустимость преференций и «особых режимов» для ИИ-компаний;
🔵 приоритет создания реальной общественной ценности;
🔵 ключевые трансформации должны иметь демократическую легитимность;
🔵 развитие ИИ не должно ограничивать будущие сценарии развития общества.
3️⃣ Защита человеческого опыта (Protecting the Human Experience):
🔵 ИИ не должен подменять базовые социальные связи — семью, дружбу, сообщество;
🔵 особая защита детей от манипулятивных ИИ-взаимодействий;
🔵 недопустимо влияние ИИ на развитие ребёнка и формирование зависимости;
🔵 обязательное предварительное тестирование систем, включая риски для психического здоровья;
🔵 маркировка ИИ-контента, если он может быть принят за человеческий;
🔵 запрет на вводящую в заблуждение «человечность» ИИ;
🔵 недопустимость формирования поведенческой зависимости.
4️⃣ Свобода и автономия человека (Human Agency and Liberty):
🔵 отказ от признания правосубъектности ИИ;
🔵 требования к прозрачности, надежности и подотчетности систем;
🔵 ИИ не должен ограничивать свободу слова, убеждений и объединений;
🔵 расширение прав на данные: доступ, исправление, удаление;
🔵 защита психологической приватности;
🔵 ИИ должен усиливать человека, а не снижать его самостоятельность.
5️⃣ Ответственность и подотчетность компаний (Responsibility and Accountability for AI Companies):
🔵 запрет использования ИИ как инструмента ухода от ответственности;
🔵 юридическая ответственность разработчиков и внедряющих сторон;
🔵 персональная ответственность руководителей за критические нарушения;
🔵 независимые стандарты безопасности и внешний контроль;
🔵недопустимость влияния индустрии на правила регулирования;
🔵прозрачность инцидентов и установление причин вреда;
🔵 для чувствительных сфер — соблюдение всех профессиональных обязанностей (медицина, право, финансы и др.).
✔️Декларация фиксирует переход от обсуждения рисков ИИ к формированию границ допустимого развития технологий.
➡️ИИ в этой логике рассматривается не как самостоятельный субъект, а как инструмент, допустимый только в системе, где человек сохраняет контроль, автономию и ответственность.