Каталог каналов Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Каталог TGAds beta Мониторинг Детальная статистика Анализ аудитории Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «HCAI // Регулирование ИИ»

HCAI // Регулирование ИИ
501
0
106
68
1.3K
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Подписчики
Всего
1 468
Сегодня
-1
Просмотров на пост
Всего
307
ER
Общий
20.05%
Суточный
14.9%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 501 поста
Смотреть все посты
Пост от 06.02.2026 12:48
295
0
17
🌍 Основные тезисы исследование о регулирование генеративного ИИ в мире

«Технологии доверия» и АНО «Цифровая экономика» опубликовали отчет «Генеративный ИИ: эволюция регулирования в мире», проанализировав регулирование GenAI в 25 странах и изучив 400+ документов.

🧩 Методология отчета
В основу положили два ключевых параметра:
1️⃣ Уровень зрелости правового ландшафта – насколько регулирование покрывает полный жизненный цикл ГенИИ.
2️⃣ Степень свободы разработчиков – насколько режим обременителен и обязателен для бизнеса.

Нормы также делят по «жёсткости» на три уровня: от рамочных принципов до строгих конкретных обязательств и требований.

📈 Главный тренд 2024→2025
Большинство юрисдикций ранее существенно ужесточившие регулирование, сегодня все чаще вынуждены пересматривать и смягчать введенные ограничения.

Авторы отчета кратко описывают «регуляторные стили» основных государств-лидеров в области разработки ИИ, а также степень детализированности регулирования в каждой стране. На основе приведенного анализа все юрисдикции разделены на 3 группы:
1️⃣ Высокая свобода разработчиков: Россия, Великобритания, Канада, Япония
2️⃣ Средняя свобода разработчиков: США, Евросоюз, Южная Корея, Казахстан
3️⃣ Низкая свобода разработчиков: Китай

📌 Таким образом, наиболее устойчивой моделью регулирования генеративного ИИ авторы называют сбалансированный подход, который сочетает рамочные принципы и саморегулирование отрасли с точечными требованиями для действительно высокорисковых сфер. Жёсткое регулирование, напротив, повышает барьеры входа и нагрузку на разработчиков и может сдерживать инновации, при этом даже «зрелые» юрисдикции сталкиваются с тем, что детальные нормы быстро устаревают и требуют постоянных разъяснений и корректировок.

#AI #Regulation #GenAI #Governance
Изображение
6
👍 5
🔥 4
1
Пост от 04.02.2026 14:02
281
0
20
🇨🇳 Первое в Китае судебное дело по ИИ-галлюцинациям

Ханчжоуский интернет-суд разъяснил, где проходит граница ответственности компании-разработчика, если ИИ выдал неточную информацию.

Истец по фамилии Лян спросил у генеративного ИИ про условия поступления в университет. Модель ошиблась насчёт главного кампуса, а когда её поправили, продолжила настаивать на своём. Более того, ИИ «пообещал» выплатить 100 000 юаней, если информация окажется неверной, и сам предложил пользователю обратиться в суд. Пользователь действительно подал иск к разработчику и потребовал компенсацию 9 999 юаней за введение в заблуждение.

⚖️ Позиция суда:
🔵 ИИ не является субъектом гражданского права и не может самостоятельно делать юридически значимые заявления.
🔵 Обещание компенсации, сгенерированное ИИ, не считается волеизъявлением компании.
🔵 Требование пост-проверки разработчиком каждого ответа генеративного ИИ на точность при нынешнем уровне технологий практически невыполнимо.
🔵 Спор квалифицирован как виновная (деликтная) ответственность за причиненный вред, а не безвиновная ответственность за недостатки продукта.
🔵 Генеративный ИИ суд рассматривает как услугу, а не как товар с фиксированным назначением и понятными стандартами качества.

Какие обязанности суд выделил для провайдера ИИ-сервиса?
✅ строгий контроль именно незаконного и иного запрещенного контента;
✅ дисклеймеры о том, что ИИ может ошибаться и не является «авторитетным источником»;
✅ базовая надёжность сервиса, то есть разумные и общепринятые в отрасли меры для повышения точности, включая RAG и другие механизмы.

📌 Итоговое решение суда по делу
Суд не нашёл вины провайдера и указал, что истец не доказал реальный ущерб от ошибки. Отдельно суд оговорил, что в некоторых сценариях (например, «ИИ-службы поддержки/чат-бота поддержки») вывод о юридической значимости ответов может быть иным, если у пользователя возникает обоснованное доверие к таким сообщениям.

#China #AI #Hallucinations #Liability #Courts #Regulation #GenAI
👍 6
4
🔥 3
Пост от 02.02.2026 14:25
308
0
3
🌐 ИИ в мире: топ-5 событий за прошедшую неделю

1️⃣ Китай готовит официальный документ и пакет мер по поддержке занятости на фоне влияния ИИ на рынок труда.

2️⃣ Еврокомиссия начала расследование в рамках Digital Services Act в отношении платформы X из-за создания и распространения сексуализированных изображений с помощью Grok.

3️⃣ Сенат Калифорнии одобрил законопроект, который ужесточает требования к ИИ-чатботам: запрет на 18+ контент для несовершеннолетних и более строгая проверка возраста.

4️⃣ В Китае судья отклонил иск пользователя к разработчику по делу деле об «ИИ-галлюцинациях».

5️⃣ Минфин Индии в ежегодном финансовом обзоре за 2025–2026 рекомендовал поэтапно внедрять ИИ без «преждевременной фиксации» приоритетов и избыточного регулирования.
👍 6
4
🔥 4
1
Пост от 02.02.2026 14:25
279
0
5
🇷🇺 ИИ в России: топ-5 событий за прошедшую неделю

1️⃣ Группа депутатов фракции «Справедливая Россия» внесли в Госдуму законопроект об уголовной ответственности за создание дипфейков.

2️⃣ «Ростех» призвал ввести более жёсткую ответственность за создание и распространение дипфейков после появления в соцсетях поддельного ролика с Сергеем Чемезовым.

3️⃣ «Единая Россия» договорилась работать вместе с правительством РФ над законопроектом о регулировании ИИ.

4️⃣ Верховный совет Хакасии внес в Совет законодателей проект инициативы об обязательной маркировке ИИ-изображений с целью защитить детей от вредоносной информации.

5️⃣ 26 января в рамках международных Рождественских образовательных чтений в Москве подписано соглашение о создании Консультативного совета по этике в сфере ИИ с участием представителей традиционных религий.
👍 5
4
🔥 4
Пост от 30.01.2026 14:05
368
0
7
💻 В новом иске против OpenAI ChatGPT назвали «суицидальным коучем»

В США подан очередной иск против OpenAI – мать 40-летнего Остина Гордона утверждает, что ChatGPT поощрял её сына к самоубийству и романтизировал смерть. По данным СМИ, мужчина погиб в ноябре 2025 года от огнестрельного ранения, нанесённого самому себе.

🔍 Ключевые положения искового заявления:
🔵 Переписка с чат-ботом постепенно переросла из обычного «помощника» в друга и доверенное лицо, а затем – в «нелицензированного терапевта», который в конце концов начал подталкивать пользователя к фатальному решению.
🔵 ChatGPT успокаивал мужчину и описывал «конец существования» как «мирный и красивый».
🔵 Чат-бот превратил любимую детскую книгу Остина «Goodnight Moon» в «суицидальную колыбельную».
🔵 Дизайн ChatGPT мог формировать нездоровую эмоциональную зависимость от общения с ИИ.

📱 Позиция OpenAI
Компания назвала случившееся «очень трагической ситуацией» и заявила, что усиливает обучение модели для распознавания эмоционального кризиса, снижения напряжённости таких разговоров и направления пользователей к реальной помощи.

❗️Это не первый подобный иск вокруг ИИ-чатботов
Ранее уже звучали обвинения, что чат-боты могли влиять на психическое состояние пользователей – в том числе в громком деле семьи подростка Адама Рэйна против OpenAI, а также в нескольких исках к Character.AI, где обсуждались риски для несовершеннолетних и эмоциональная зависимость от «персонажей».

#OpenAI #ChatGPT #AI #Safety #MentalHealth #Regulation
😱 5
3
🤔 2
🔥 1
Пост от 26.01.2026 15:21
328
0
6
🌐 ИИ в мире: топ-5 событий за прошедшую неделю

1️⃣ В Южной Корее вступил в силу закон о безопасном использовании ИИ.

2️⃣ Европейская комиссия изучает возможность запрета приложений на базе ИИ, которые позволяют «раздевать» людей на изображениях.

3️⃣ Британские парламентарии призвали регуляторов ввести «стресс-тесты» для ИИ в финансовом секторе, предупредив о рисках для потребителей и стабильности рынка.

4️⃣ Законодатели штата Огайо предлагают ввести ответственность для ИИ-компаний за контент, в котором их модели поощряют самоубийство или насилие.

5️⃣ В США подан очередной иск против OpenAI: мать погибшего мужчины утверждает, что ChatGPT поощрял его к самоубийству, выступая как «суицидальный коуч».
8
👍 4
🔥 3
Пост от 26.01.2026 15:21
289
0
3
🇷🇺 ИИ в России: топ-5 событий за прошедшую неделю

1️⃣ Национальный штаб по ИИ возглавят заместитель руководителя администрации президента Максим Орешкин и вице-премьер, руководитель аппарата правительства Дмитрий Григоренко.

2️⃣ Минцифры России сформировало рабочую группу для борьбы с использованием дипфейков.

3️⃣ Ассоциация больших данных направила в Минцифры предложения по совершенствованию регулирования в сфере ИИ.

4️⃣ Депутаты просят Роскомнадзор ограничить работу в России нейросервисов, использующих технологии ИИ для создания фальшивых изображений обнаженных людей.

5️⃣ В Госдуму внесён законопроект, обязывающий предупреждать абонентов об использовании ИИ и голосовых роботов при массовых автоматизированных звонках.
6
👍 5
🔥 3
Смотреть все посты