Каталог каналов Новое Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Мониторинг Новое Детальная статистика Анализ аудитории Telegraph-статьи Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы
Защита от накрутки Создать своего бота Продать/Купить канал Монетизация

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «HCAI // Регулирование ИИ»

HCAI // Регулирование ИИ
197
0
106
68
1.3K
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ
Подписчики
Всего
1 453
Сегодня
0
Просмотров на пост
Всего
272
ER
Общий
15.93%
Суточный
11.2%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 197 постов
Смотреть все посты
Пост от 26.12.2025 13:22
175
0
6
🇯🇵 Япония планирует «агрессивно сокращать разрыв в ИИ-гонке На прошлой недел правительство Японии представило первый проект базового плана по ИИ, который задаёт направление будущей государственной политики в области ИИ. И уже 23 декабря на заседании кабинета министров данный план был утвержден. В документе выражается обеспокоенность тем, что Япония отстаёт от других стран по темпам разработки и объёмам инвестиций в ИИ, что напрямую влияет на промышленную конкурентоспособность и национальную безопасность страны. 🎯 Основная цель документа – создать «надёжный ИИ», соблюдая баланс между технологическими инновациями и управлением рисками для того, чтобы стать страной с наилучшей средой для разработки и применения ИИ. Для достижения этой цели обозначены 4️⃣ основных направления: 1️⃣ ускорение внедрения ИИ; 2️⃣ наращивание возможностей по разработке; 3️⃣ улучшение управления (governance); 4️⃣ трансформация общества. 📌 Ключевые меры: 🔵 Удвоение штата AI Safety Institute для разработки системы оценки безопасности ИИ. 🔵 Создание «базовых» отечественных моделей и «физического ИИ» как ключевых инструментов конкуренции. 🔵 Накопление и активное использование данных, включая межорганизационный обмен, а также государственно-частные партнёрства. 🔵 Призыв к руководителям министерств и ведомств активно применять ИИ, подавая пример сотрудникам. 🔵 Предоставление субсидий малому и среднему бизнесу на внедрение ИИ. 🔵 Развитие образовательных программ и раннее обучение основам ИИ в школе. 🔍 Базовый план, подготовленный на основании Закона о содействии развитию ИИ («AI Utilization Promotion Act»), принятого в мае, будет обновляться ежегодно. Правительство рассчитывает к следующему лету подготовить дорожную карту с целевыми показателями по инвестициям и отразить её в пересмотренной версии базового плана. #Japan #AI #Safety #Regulation
👍 6
🔥 3
👏 3
Пост от 24.12.2025 12:50
215
0
4
🇪🇺 ЕС начала расследование Google из-за использования онлайн-контента для ИИ Европейская комиссия начала антимонопольное расследование: проверят, не ставит ли Google конкурентов в невыгодное положение, используя материалы веб-издателей и YouTube-креаторов для своих ИИ-сервисов (включая Gemini). 🔍 Что будут проверять? 🔵 условия для издателей и авторов: нет ли навязывания несправедливых правил и «привилегированного доступа» Google к контенту; 🔵 применение материалов сайтов в ИИ-функциях поисковой выдачи без компенсации и без возможности отказа; 🔵 использование загруженных на YouTube видео для обучения генеративных моделей Google без вознаграждения авторам и без опции отказаться. 💬 Представитель Google заяавил: «Эта жалоба рискует задушить инновации на рынке, который конкурентен как никогда. Европейцы заслуживают возможности пользоваться новейшими технологиями, и мы продолжим тесно работать с новостной и креативной индустриями по мере их перехода в эпоху ИИ». #EU #Antitrust #Google #AI #Competition #Regulation
6
👍 4
🔥 3
Пост от 22.12.2025 14:03
271
0
4
🌐 ИИ в мире: топ-5 событий прошедшей недели 1️⃣ Сингапур, Япония, Великобритания и ещё четыре государства подписали декларацию о сотрудничестве в сфере ИИ и инфраструктуры по итогам первого саммита Pax Silica, созванного по инициативе США. 2️⃣ Европейская комиссия представила проект «Code of Practice on Transparency of AI-Generated Content», устанавливающий нормы маркировки ИИ-контента. 3️⃣ Южная Корея планирует ввести комплексный закон об ИИ уже с 22 января 2026 года, несмотря на растущие опасения со стороны стартапов и бизнеса. 4️⃣ Губернатор штата Нью-Йорк подписала закон, регулирующий разработку ИИ-моделей. 5️⃣ Япония в проекте базового плана по ИИ предлагает удвоить штат AI Safety Institute и параллельно смягчить правила по персональным данным, чтобы ускорить развитие ИИ.
👍 7
4
🔥 4
Пост от 22.12.2025 14:03
231
0
6
🇷🇺 ИИ в России: топ-5 событий прошедшей недели 1️⃣ Владимир Путин заявил о необходимости внедрения технологий ИИ и робототехники для развития российских войск, получения разведывательной информации и точных навигационных данных. 2️⃣ В Совете Федерации готовят законопроект против дипфейков: использование ИИ-синтеза изображения и голоса в мошенничестве планируют прямо закрепить в Уголовном кодексе РФ. 3️⃣ Вице-премьер РФ Дмитрий Григоренко поручил заинтересованным организациям подготовить предложения по регулированию ИИ в России, Минцифры проанализирует их и до 13 марта представит в правительство. 4️⃣ Российские законодатели рассказали, что используют ИИ как редактора и аналитического помощника для поиска ошибок и анализа законопроектов. 5️⃣ Принят законопроект, позволяющий нейросетям в рамках эксперимента осуществлять надзор за экологией и благоустройством в Москве с 1 января 2026 года.
👍 6
4
🔥 4
🤯 1
Пост от 19.12.2025 12:55
290
0
9
🇮🇳 Индия предлагает обязательные роялти за обучение ИИ на защищенном контенте Департамент содействия промышленности и внутренней торговле Индии вынес на обсуждение проект, согласно которому разработчики ИИ получают автоматический доступ к охраняемым авторским правом произведениям для обучения моделей в обмен на выплаты в единый коллективный орган. Выплаченные роялти будут распределяться между правообладателями непосредственно данным органом. Авторы инициативы выделяют следующие ее преимущества: ✅ доступ ко всем законно доступным произведениям упрощает и так дорогостоящий процесс обучения ИИ-моделей; ✅ «обязательная универсальная лицензия» обеспечит вознаграждение всем правообладателям; ✅ единый орган вместо тысяч отдельных сделок снизит транзакционные издержки для компаний; ✅ такая система позволит избежать многолетней неопределённости как в США и ЕС; ✅ зарубежные ИИ-компании активно зарабатывают в Индии и используют труд местных авторов, которые должны получить справедливое вознаграждение. 👎 Возражения индустрии 🔵 Ассоциация ИТ-компаний Nasscom предлагает ввести широкое TDM-исключение (Text & Data Mining) — норму, позволяющую разработчикам автоматически копировать и анализировать законно доступные тексты и данные для обучения без отдельной лицензии, — и дать правообладателям механизм opt-out (право официально запретить использование своих материалов в таком майнинге). 🔵 Business Software Alliance (BSA) предупреждает: если опираться только на лицензирование и не вводить TDM-исключение, объём доступных данных для обучения сократится, вырастут предвзятости, а качество моделей упадёт. 📨 Департамент открыл публичные консультации: компаниям и заинтересованным сторонам даётся 3️⃣0️⃣ дней на представление комментариев. После анализа отзывов финализированный проект будет вынесен на рассмотрение правительства. #India #AI #Copyright #TDM #Licensing #Regulation
👍 6
3
🔥 3
🤯 1
Пост от 17.12.2025 12:20
453
0
12
🌐 AI Safety Index (Winter 2025) Future of Life Institute выпустил обновлённый индекс безопасности ИИ для ведущих компаний. 🔍 Домены, по которым проверяли модели: оценка рисков, текущий вред, системы безопасности, экзистенциальная безопасность, управление и подотчётность, обмен информацией и прозрачность. 📌 Что учитывалось при проверке: публичные политики и процессы, независимые проверки и исследования, фактические кейсы. Ключевые выводы 🔵 Сохраняется серьезный разрыв между топами индустрии и остальными компаниями. 🔵 Самые слабые места: оценка рисков, наличие работающих «систем безопасности» (процедур и процессов) и обмен информацией (прозрачность). 🔵 Планы на контроль AGI и меры по установлению «экзистенциальной безопасности» у компаний либо неявны, либо неубедительны. 🔵 У всех компаний в том или ином виде закреплены принципы безопасной ИИ-разработки. 🔵 Однако не хватает внешних аудитов и отчётности по инцидентам. ❗️Таким образом, компании лучше справляются с текущими рисками и базовой модерацией, чем с долгосрочными, системными рисками и управлением опасными способностями моделей. #AI #AISafetyIndex
👍 8
3
🔥 3
Пост от 15.12.2025 12:06
289
0
5
🌐 ИИ в мире: топ-5 событий прошедшей недели 1️⃣ Пентагон планирует создать комитет для изучения перспектив и рисков, связанных с развитием AGI. 2️⃣ Дональд Трамп подписал указ, ограничивающий возможности штатов регулировать сферу ИИ. 3️⃣ Более 100 британских парламентариев призвали правительство ввести регулирование для самых мощных ИИ-систем. 4️⃣ Индия опубликовала проект системы, которая предоставляет ИИ-компаниям доступ ко всем произведениям — при условии выплаты обязательных роялти в единый центр коллективного управления авторскими правами. 5️⃣ Еврокомиссия начала антимонопольное расследование против Google из-за возможного использования контента сайтов и YouTube для обучения ИИ без разрешения.
👍 9
5
🔥 5
Смотреть все посты