Каталог каналов Мои подборки Мои каналы Поиск постов Рекламные посты
Инструменты
Каталог TGAds Мониторинг Детальная статистика Анализ аудитории Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «HCAI // Регулирование ИИ»

HCAI // Регулирование ИИ
575
0
106
68
2.2K
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Подписчики
Всего
1 508
Сегодня
+1
Просмотров на пост
Всего
198
ER
Общий
12.17%
Суточный
8%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 575 постов
Смотреть все посты
Пост от 05.05.2026 16:39
41
0
2
🇨🇳 В Китае суд признал незаконным увольнение ИТ-специалиста ради замены его функций нейросетями

Суд в Ханчжоу вынес показательное решение по делу, связанному с автоматизацией труда с помощью ИИ. Суд пришел к выводу, что компании не могут в одностороннем порядке увольнять сотрудников или ухудшать условия их труда только из-за внедрения новых технологий.

📝Суть дела:
QA-инженер Чжоу Лу с 2022 года работал в технологической компании провинции Чжэцзян. В его задачи входили:
🟦 проверка корректности ответов больших языковых моделей;
🟦 фильтрация нежелательного контента;
🟦 контроль качества работы ИИ-систем.

Позднее компания решила частично автоматизировать эти процессы с помощью нейросетей и предложила сотруднику понижение в должности и сокращение заработной платы с $3 661,26 до $2 196,76 в месяц.

После отказа сотрудника принять новые условия трудового договора, работодатель расторг с Чжоу Лу контракт, мотивировав это проведением реструктуризации внутри компании, и предложил компенсацию в размере $46 424,78.

⚖️ Позиция суда:
Суд признал увольнение незаконным и указал, что:
🟦 компания не доказала наличие объективных причин для сокращения;
🟦 финансовое положение работодателя не ухудшилось;
🟦 внедрение ИИ само по себе не является достаточным основанием для расторжения трудового договора.

Сотрудник добился дополнительных компенсационных выплат, а попытка работодателя оспорить решение оказалась безуспешной.

🌐 Почему это важно:
Решение отражает более широкий подход Китая к регулированию последствий автоматизации. С одной стороны, страна активно развивает ИИ-индустрию: объем рынка ИИ в Китае уже превысил $175 млрд, а число профильных компаний достигло 6 тыс. С другой, регуляторы все чаще подчеркивают необходимость защиты занятости и трудовых прав в условиях технологической трансформации.

Представители профильных органов при Министерстве промышленности и информатизации КНР отмечают, что автоматизация неизбежно меняет рынок труда, однако бизнесу рекомендуется:
🟦 предлагать сотрудникам альтернативные позиции;
🟦 обеспечивать справедливые компенсации;
🟦 избегать необоснованного ухудшения условий труда при внедрении ИИ.
1
👍 1
🙏 1
Пост от 04.05.2026 12:33
134
0
5
🌐 ИИ в мире: топ-5 событий за прошедшую неделю

1️⃣ Google подписала с Министерством обороны США секретный контракт, связанный с использованием ИИ.

2️⃣ В Канада представлены шесть ключевых принципов будущей национальной стратегии в сфере ИИ.

3️⃣ Соглашение между Microsoft и OpenAI по AGI утратило силу. Одновременно компании Microsoft и OpenAI пересмотрели соглашение о сотрудничестве - партнерство больше не носит эксклюзивный характер.

4️⃣ Суд в Китай запретил увольнять сотрудников по причине возможности их замены ИИ.

5️⃣ ЮАР отозвала проект национальной политики по ИИ после обнаружения в документе галлюцинаций ИИ.
3
👍 2
🙏 2
Пост от 04.05.2026 12:32
133
0
4
🇷🇺 ИИ в России: топ-5 событий за прошедшую неделю

1️⃣ Президент России В.В. Путин подписал закон об условиях использования ИИ в агитации.

2️⃣ Правительство РФ смягчило ряд требований в рамках законопроекта о регулировании ИИ.

3️⃣ В Государственной Думе РФ призвали сформировать единые рамки регулирования ИИ в российских вузах.

4️⃣ Российские издатели выступили за механизм отчислений за использование контента СМИ при обучении ИИ-моделей.

5️⃣ Президент России В.В. Путин заявил о необходимости выработать сбалансированную модель регулирования ИИ.
Изображение
3
👍 2
👌 2
Пост от 01.05.2026 11:20
191
0
3
🇷🇸 Глобальный атлас регулирования ИИ: Сербия

✍️ В январе 2025 года Правительство Сербии приняло обновленную Стратегию Развития ИИ на период 2025-2030 гг. (Strategy for the Development of AI in the Republic of Serbia for the period 2025-2030), которая определяет пять целей:
1️⃣принятие единого закона об ИИ
2️⃣создание многоуровневой системы образования
3️⃣поддержка НИОКР
4️⃣стимулирование внедрения ИИ в госсектор и бизнес (здравоохранение, биотехнологии, образование, сельское хозяйство, инфобезопасность)
5️⃣создание инфраструктуры для стандартизации и управления данными.

🏛В 2024 году в структуре Правительства Сербии был создан Совет по ИИ (AI Council) , который контролирует реализацию Стратегии и подготовку нормативных актов. В 2020 году была создана Сербская Ассоциация в сфере ИИ (Serbian Artificial Intelligence Association, AI SRB), объединяющая экспертов, стартапы, компании, госучреждения и НКО.

⚖️ В Сербии отсутствует закон об ИИ, комплексно регулирующий технологии ИИ. Однако одной из целей Стратегии развития ИИ является принятие единого закона об ИИ. В 2024 году была создана Специальная рабочая группа при Министерстве науки, технологического развития и инноваций Сербии (Ministry of Science, Technological Development and Innovation) для создания законопроекта Закона об ИИ, который планируется принять в 2025 году. Однако по состоянию на апрель 2026 года Закон об ИИ так и не был принят. С 2011 года действует Инновационный Фонд (Innovation Fund), в рамках которого реализуется Программа поддержки предприятий, разрабатывающих ИИ-решения (Serbia Ventures AI).

🔐 В августе 2019 года в Сербии был принят Закон «О защите персональных данных» (the Law on Personal Data Protection № 97/08 (LPDP)), который предусматривает положения, регулирующие автоматизированную обработку данных и автоматизированное индивидуализированное принятие решений. В соответствии со ст. 9 данного акта, любое решение, влекущее юридические последствия для лица или ухудшающее его положение, не может основываться исключительно на данных, обработанных автоматически.

🚗 Общие вопросы дорожного движения регулируются Законом «О безопасности дорожного движения и дорогах» (Law on Traffic Safety on Roads (LTSR)). Поправки к данному Закону, касающиеся автоматизированных и автономных транспортных средств, были внесены в конце 2023 года, разрешив проведение испытаний на дорогах общего пользования. Наряду с этими поправками был принят специальный свод правил об условиях проведения автономного вождения (Rulebook on the Conditions for Conducting Autonomous Driving), описывающий условия и процедуру выдачи разрешений.

🏥 Вопросы медицинских изделий регулируются Законом «О медицинских изделиях» (the Law on Medical Devices No 105/2017), который включает ПО для диагностических или терапевтических целей. Агентство по лекарственным средствам и медицинским изделиям (Medicines and Medical Devices Agency of Serbia (ALIMS)) уполномочено определять, является ли продукт медицинским изделием, в каждом конкретном случае.

🌐 В марте 2023 года Правительство Сербии приняло Этические принципы разработки, применения и использования надёжного и ответственного ИИ (the Ethical Guidelines for the Development, Application and Use of Reliable and Responsible AI). Основными целями Этических принципов являются предотвращение и снижение рисков и вреда для человеческой деятельности, а также сохранение свободы действий и принятия решений людьми при использовании ИИ.

#ИИ #ГлобальныйАтлас #Сербия
👍 3
2
🤩 2
Пост от 27.04.2026 13:05
241
0
10
🌐 ИИ в мире: топ-5 событий за прошедшую неделю

1️⃣ В ОАЭ планируют перевести до 50% функций госсектора под управление агентного ИИ в течение двух лет.

2️⃣ В штате Флорида начато уголовное расследование в отношении OpenAI и чат-бота ChatGPT.

3️⃣ В Канаде рассматривается возможность запрета социальных сетей и ИИ-чат-ботов для несовершеннолетних пользователей.

4️⃣ Правительство Великобритания предупредило бизнес о росте киберрисков, связанных с применением ИИ.

5️⃣ Китайский регулятор заблокировал сделку по приобретению стартапа Manus компанией Meta, сославшись на защиту национальных интересов в сфере передовых технологий.
Изображение
3
3
👍 2
Пост от 27.04.2026 13:05
205
0
6
🇷🇺 ИИ в России: топ-5 событий за прошедшую неделю

1️⃣ Совет по кодификации при Президенте РФ не поддержал законопроект Минцифры о регулировании ИИ.

2️⃣ Правительство России исключило из законопроекта требование обучать суверенные и национальные модели только на российских данных.

3️⃣ Ассоциация банков России предложила отложить введение требований по регулированию ИИ минимум до марта 2028 года, а наиболее сложных мер — до сентября 2029 года.

4️⃣ Госдума приняла закон, запрещающий использовать в агитации изображения и голоса, созданные с помощью ИИ.

5️⃣ ИИ использовался при подготовке проекта нового постановления Пленума Верховного суда РФ о подготовке гражданских дел к судебному разбирательству.
Изображение
3
👍 2
🙏 2
Пост от 27.04.2026 11:57
222
0
10
🌍 Представлена декларация The Pro-Human AI Declaration

На платформе Human Statement опубликован международный документ, формирующий ценностную рамку развития ИИ: технологии допустимы постольку, поскольку сохраняют контроль, свободу и ответственность человека. Декларация примечательна не только содержанием, но и составом подписантов — это широкая межсекторальная коалиция, существенно выходящая за пределы технологической индустрии.

📄Документ содержит набор принципов, охватывающих ключевые риски развития ИИ:

1️⃣ Сохранение контроля за человеком (Keeping Humans in Charge):
🔵 контроль человека является безусловным приоритетом — решения не должны передаваться ИИ без осознанного выбора;
🔵 требуется «осмысленный контроль»: возможность понимать, направлять и останавливать систему;
🔵 развитие сверхинтеллекта недопустимо без научного консенсуса и общественной поддержки;
🔵 обязательны механизмы аварийного отключения (off-switch);
🔵 запрещены архитектуры с самовоспроизведением, неконтролируемым самообучением и устойчивостью к отключению;
🔵 для высокоавтономных систем — независимый надзор до их разработки;
🔵 разработчики обязаны честно раскрывать возможности и ограничения систем.

2️⃣ Недопущение концентрации власти (Avoiding Concentration of Power):
🔵 предотвращение ИИ-монополий как системного риска;
🔵 справедливое распределение экономических выгод от ИИ;
🔵 недопустимость преференций и «особых режимов» для ИИ-компаний;
🔵 приоритет создания реальной общественной ценности;
🔵 ключевые трансформации должны иметь демократическую легитимность;
🔵 развитие ИИ не должно ограничивать будущие сценарии развития общества.

3️⃣ Защита человеческого опыта (Protecting the Human Experience):
🔵 ИИ не должен подменять базовые социальные связи — семью, дружбу, сообщество;
🔵 особая защита детей от манипулятивных ИИ-взаимодействий;
🔵 недопустимо влияние ИИ на развитие ребёнка и формирование зависимости;
🔵 обязательное предварительное тестирование систем, включая риски для психического здоровья;
🔵 маркировка ИИ-контента, если он может быть принят за человеческий;
🔵 запрет на вводящую в заблуждение «человечность» ИИ;
🔵 недопустимость формирования поведенческой зависимости.

4️⃣ Свобода и автономия человека (Human Agency and Liberty):
🔵 отказ от признания правосубъектности ИИ;
🔵 требования к прозрачности, надежности и подотчетности систем;
🔵 ИИ не должен ограничивать свободу слова, убеждений и объединений;
🔵 расширение прав на данные: доступ, исправление, удаление;
🔵 защита психологической приватности;
🔵 ИИ должен усиливать человека, а не снижать его самостоятельность.

5️⃣ Ответственность и подотчетность компаний (Responsibility and Accountability for AI Companies):
🔵 запрет использования ИИ как инструмента ухода от ответственности;
🔵 юридическая ответственность разработчиков и внедряющих сторон;
🔵 персональная ответственность руководителей за критические нарушения;
🔵 независимые стандарты безопасности и внешний контроль;
🔵недопустимость влияния индустрии на правила регулирования;
🔵прозрачность инцидентов и установление причин вреда;
🔵 для чувствительных сфер — соблюдение всех профессиональных обязанностей (медицина, право, финансы и др.).

✔️Декларация фиксирует переход от обсуждения рисков ИИ к формированию границ допустимого развития технологий.

➡️ИИ в этой логике рассматривается не как самостоятельный субъект, а как инструмент, допустимый только в системе, где человек сохраняет контроль, автономию и ответственность.
2
👍 1
🔥 1
Смотреть все посты