Каталог каналов Новое Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Мониторинг Новое Детальная статистика Анализ аудитории Telegraph-статьи Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы
Защита от накрутки Создать своего бота Продать/Купить канал Монетизация

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «HCAI // Регулирование ИИ»

HCAI // Регулирование ИИ
241
0
106
68
2.2K
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ
Подписчики
Всего
1 448
Сегодня
0
Просмотров на пост
Всего
276
ER
Общий
18.7%
Суточный
13.7%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 241 постов
Смотреть все посты
Пост от 19.12.2025 12:55
155
0
6
🇮🇳 Индия предлагает обязательные роялти за обучение ИИ на защищенном контенте Департамент содействия промышленности и внутренней торговле Индии вынес на обсуждение проект, согласно которому разработчики ИИ получают автоматический доступ к охраняемым авторским правом произведениям для обучения моделей в обмен на выплаты в единый коллективный орган. Выплаченные роялти будут распределяться между правообладателями непосредственно данным органом. Авторы инициативы выделяют следующие ее преимущества: ✅ доступ ко всем законно доступным произведениям упрощает и так дорогостоящий процесс обучения ИИ-моделей; ✅ «обязательная универсальная лицензия» обеспечит вознаграждение всем правообладателям; ✅ единый орган вместо тысяч отдельных сделок снизит транзакционные издержки для компаний; ✅ такая система позволит избежать многолетней неопределённости как в США и ЕС; ✅ зарубежные ИИ-компании активно зарабатывают в Индии и используют труд местных авторов, которые должны получить справедливое вознаграждение. 👎 Возражения индустрии 🔵 Ассоциация ИТ-компаний Nasscom предлагает ввести широкое TDM-исключение (Text & Data Mining) — норму, позволяющую разработчикам автоматически копировать и анализировать законно доступные тексты и данные для обучения без отдельной лицензии, — и дать правообладателям механизм opt-out (право официально запретить использование своих материалов в таком майнинге). 🔵 Business Software Alliance (BSA) предупреждает: если опираться только на лицензирование и не вводить TDM-исключение, объём доступных данных для обучения сократится, вырастут предвзятости, а качество моделей упадёт. 📨 Департамент открыл публичные консультации: компаниям и заинтересованным сторонам даётся 3️⃣0️⃣ дней на представление комментариев. После анализа отзывов финализированный проект будет вынесен на рассмотрение правительства. #India #AI #Copyright #TDM #Licensing #Regulation
👍 5
2
🔥 2
Пост от 17.12.2025 12:20
346
0
11
🌐 AI Safety Index (Winter 2025) Future of Life Institute выпустил обновлённый индекс безопасности ИИ для ведущих компаний. 🔍 Домены, по которым проверяли модели: оценка рисков, текущий вред, системы безопасности, экзистенциальная безопасность, управление и подотчётность, обмен информацией и прозрачность. 📌 Что учитывалось при проверке: публичные политики и процессы, независимые проверки и исследования, фактические кейсы. Ключевые выводы 🔵 Сохраняется серьезный разрыв между топами индустрии и остальными компаниями. 🔵 Самые слабые места: оценка рисков, наличие работающих «систем безопасности» (процедур и процессов) и обмен информацией (прозрачность). 🔵 Планы на контроль AGI и меры по установлению «экзистенциальной безопасности» у компаний либо неявны, либо неубедительны. 🔵 У всех компаний в том или ином виде закреплены принципы безопасной ИИ-разработки. 🔵 Однако не хватает внешних аудитов и отчётности по инцидентам. ❗️Таким образом, компании лучше справляются с текущими рисками и базовой модерацией, чем с долгосрочными, системными рисками и управлением опасными способностями моделей. #AI #AISafetyIndex
👍 8
3
🔥 3
Пост от 15.12.2025 12:06
271
0
5
🌐 ИИ в мире: топ-5 событий прошедшей недели 1️⃣ Пентагон планирует создать комитет для изучения перспектив и рисков, связанных с развитием AGI. 2️⃣ Дональд Трамп подписал указ, ограничивающий возможности штатов регулировать сферу ИИ. 3️⃣ Более 100 британских парламентариев призвали правительство ввести регулирование для самых мощных ИИ-систем. 4️⃣ Индия опубликовала проект системы, которая предоставляет ИИ-компаниям доступ ко всем произведениям — при условии выплаты обязательных роялти в единый центр коллективного управления авторскими правами. 5️⃣ Еврокомиссия начала антимонопольное расследование против Google из-за возможного использования контента сайтов и YouTube для обучения ИИ без разрешения.
👍 9
5
🔥 5
Пост от 15.12.2025 12:06
249
0
5
🇷🇺 ИИ в России: топ-5 событий прошедшей недели 1️⃣ Михаил Мишустин сообщил, что Правительство России готовит план внедрения ГенИИ на уровне отраслей и субъектов. 2️⃣ Правительство РФ ужесточило правила для попадания решений генеративного ИИ в реестр отечественного ПО. 3️⃣ На заседании Совета по правам человека Президенту России доложили о подготовке законопроекта о безопасном использовании ИИ в социальной сфере. 4️⃣ Минпромторг до июля 2026 года подготовит дорожную карту по разработке российских ИИ-ускорителей (GPU). 5️⃣ Владимир Мединский, первый секретарь Союза писателей России, заявил, что развитие ИИ подменяет творческий труд и создаёт прямую угрозу профессии писателя.
👍 8
🔥 4
🥰 4
Пост от 12.12.2025 12:53
347
0
12
🇺🇸 США берут курс на единую федеральную политику в сфере ИИ 11 декабря Дональд Трамп подписал указ «Ensuring a National Policy Framework for AI». Белый дом делает ставку на минимально обременительный общенациональный режим и готов бороться с законами штатов, которые, по его мнению, мешают «глобальному лидерству США в ИИ». 📌 Ключевые положения: 🔵 В Министерстве юстиции создаётся рабочая группа «AI Litigation Task Force», которая получит право оспаривать законы «обременительные» ИИ-законы штатов. 🔵 Министерство торговли в течение 90 дней опубликует обзор законов штатов и отметит те, что противоречат федеральной политике. 🔵 Штаты с такими законами рискуют потерять доступ к будущему финансированию и грантам. 🔵 Федеральная комиссия по связи (FCC) начнёт разработку федерального стандарта отчётности и раскрытия информации для ИИ-моделей. 🔵 Федеральная торговая комиссия (FTC) выпустит разъяснение: когда законы штатов, вынуждающие «править» правдивые ответы модели, считаются недобросовестной и обманной практикой. 🔵 Спецсоветник по ИИ и крипто и Помощник президента по науке и технологиям совместно готовят законодательные предложения по закрепленю данной инициативы. ❗️ Какие нормы штатов НЕ могут быть затронуты согласно указу: 🔵 законы о защите детей; 🔵 о вычислительных ресурсах и инфраструктуре (дата-центрах); 🔵 о госзакупках и использовании ИИ органами власти штатов. Данный указ становится логическим продолжением политики Дональда Трампа в сфере ИИ, не раз критиковавшего законы штатов за создание запутанного «лоскутного одеяла» требований и заявлявшем о критической важности победы США в гонке ИИ. #USA #AI #Regulation
7
👍 7
👏 6
Пост от 10.12.2025 12:13
346
0
12
🇦🇺 Австралия представила Национальный план по ИИ 2 декабря правительство Австралии представило National AI Plan – дорожную карту по ускоренному внедрению ИИ в экономике с опорой на действующие законы и отраслевых регуляторов, без введения новых жёстких правил для «высоких рисков». 🎯 Цель – обеспечить выгоды от новой технологии для граждан при сохранении баланса между инновациями и управлением рисками. Ключевые положения: 🔵 привлечении инвестиций в продвинутые центры обработки данных; 🔵 разработка национальных принципов для дата-центро; 🔵 создание национальных программ переобучения кадров и формирования ИИ-компетенций; 🔵 запуск общегосударственной платформы GovAI — централизованного, суверенного хостинг-сервисс ИИ для федеральных ведомств; 🔵 Chief AI Officer в каждом федеральном ведомстве; 🔵 создание AI Safety Institute для мониторинга, тестирования и обмена информацией о способностях ИИ; 🔵 отказ от ввода TDM-исключения* для обучения моделей; 🔵 участие в глобальных инициативах и фокус на лидерстве Австралии в Индо-Тихоокеанском регионе. ❗️Несмотря на отсутствие нового законодательства, ведомства и отраслевые регуляторы сохранят ответственность за выявление и управление потенциальными рисками от ИИ в пределах своих сфер. 💬 Министр промышленности Тим Эйрс заявил: «По мере развития технологии мы будем продолжать уточнять и усиливать этот план, чтобы использовать новые возможности и решительно действовать для обеспечения безопасности австралийцев». * Text and Data Mining (TDM) – метод автоматизированного копирования/извлечения и анализа цифровых текстов и данных для выявления закономерностей, тенденций и корреляций. Соответственно, TDM-исключение - специальный правовой режим, при котором можно собирать и использовать данные для обучения моделей без разрешения правообладателей. #Australia #AI #NationalAIPlan #Safety
👍 7
3
🔥 3
Пост от 09.12.2025 13:54
238
0
0
⚡️Аджит Абрахам | Не все то золото, что блестит ИИ – глобальный быстрорастущий тренд, но вместе с его развитием возникают вопросы, требующие решений в ближайшее время. Делимся с вами видением Аджита, декана факультета ИИ Университета Sai в Индии Быть готовым к будущему – значит принять новые технологии и создать институты и культуру, способные встречать неопределенность с ясной целью и мудростью 👉 Подробнее читайте в рубрике, подготовленной совместно с Центром Человекоцентричного AI ПАО Сбербанк – в издании САПФИР
9
👍 8
👏 5
Смотреть все посты