Каталог каналов Новое Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Мониторинг Новое Детальная статистика Анализ аудитории Telegraph-статьи Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы
Защита от накрутки Создать своего бота Продать/Купить канал Монетизация

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «HCAI // Регулирование ИИ»

HCAI // Регулирование ИИ
241
0
106
68
2.2K
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ
Подписчики
Всего
1 425
Сегодня
+1
Просмотров на пост
Всего
388
ER
Общий
22.59%
Суточный
22.7%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 241 постов
Смотреть все посты
Пост от 05.11.2025 10:28
194
0
6
🌐 ИИ в мире: топ-5 событий прошедшей недели 1️⃣ США подписали соглашения с Японией и Южной Кореей о сотрудничестве в сфере ИИ, чипов и биотехнологий для укрепления технологического партнёрства и снижения зависимости от Китая. 2️⃣ Китай утвердил план научно-технического развития на 2026–2030 годы, включающий усиление исследований в области ИИ, а также продвижение инициативы «AI Plus» как нового двигателя экономического роста. 3️⃣ Министр науки, инноваций и технологий Великобритании представила новый план регулирования ИИ, направленный сокращение бюрократии и создание регуляторных песочниц. 4️⃣ Австралия рассматривает изменения в Законе об авторском праве в части использования ИИ, включая создание системы коллективного лицензирования и упрощение судебной защиты правообладателей. 5️⃣ Китай планирует внести поправки в Закон о кибербезопасности, добавив положения об ИИ для усиления мониторинга и надзора за рисками.
Изображение
👍 6
🔥 4
3
Пост от 05.11.2025 10:28
142
0
0
🇷🇺 ИИ в России: топ-5 событий прошедшей недели 1️⃣ Правительство РФ планирует дать бизнесу доступ к федеральной платформе открытых данных для обучения ИИ. 2️⃣ Минпромторг представил обновлённую стратегию развития беспилотной авиации России до 2030 года, предусматривающую рост доли отечественных дронов и технологической независимости отрасли. 3️⃣ В правительстве России создана рабочая группа с участием энергетических, технологических компаний и органов власти, которая изучит варианты энергоснабжения дата-центров для ИИ. 4️⃣ Суд запретил использовать изображения, созданные ИИ, в предвыборной агитации, сочтя их манипулятивными и способными искажать восприятие кандидатов. 5️⃣ Национальная федерация музыкальной индустрии предложила приравнять использование образов человека без его согласия к нарушению интеллектуальных прав, предусматривая компенсации и штрафы по аналогии с авторским правом.
Изображение
👍 8
3
🔥 3
Пост от 31.10.2025 13:47
510
0
9
🤖 Очередной призыв остановить разработку «сверхинтеллекта» Более 8️⃣5️⃣0️⃣ общественных деятелей, учёных и предпринимателей подписали открытое заявление с призывом запретить создание искусственного интеллекта, превосходящего человека по всем когнитивным способностям. Среди подписантов: 🔵сооснователь Apple Стив Возняк, 🔵учёные Йошуа Бенжио, Джеффри Хинтон и Стюарт Рассел, 🔵принц Гарри и Меган Маркл, 🔵бывший президент Ирландии Мэри Робинсон, 🔵экс-глава Комитета начальников штабов США Майк Маллен. 📍 В заявлении говорится, что гонка за «сверхинтеллектом» несёт экзистенциальные и социальные риски: от потери контроля и гражданских свобод до угроз национальной безопасности и даже вымирания человечества. Подписанты требуют запретить разработку подобных систем, пока не будет научного консенсуса и общественного согласия на их безопасное создание. Авторы заявления ссылаются на опрос Future of Life Institute, показавший, что только 5️⃣🔤 американцев поддерживают нынешние «ускоренные и нерегулируемые» темпы развития сверхинтеллекта. 💬 Профессор Йошуа Бенжио отметил, что в ближайшие годы системы ИИ смогут превосходить человека в большинстве когнитивных задач, что может помочь решать глобальные проблемы, но также несёт огромные риски. «Чтобы безопасно двигаться к сверхинтеллекту, мы должны научно определить, как создавать системы, не способные причинить вред человеку, будь то из-за ошибок или злоумышленного использования», — подчеркнул он. #AI #Superintelligence #Regulation #Ethics #Safety
7
👍 5
🔥 5
Пост от 29.10.2025 12:31
476
0
13
🇻🇳 Вьетнам представил проект Закона об искусственном интеллекте Министерство науки и технологий Вьетнама опубликовало проект первого самостоятельного Закона об ИИ. Документ заменит положения о нейросетях в Законе о цифровой индустрии и создаст единый режим регулирования ИИ. ⚙️ Основные положения 🔵 вводится четырёхуровневая классификация рисков по модели европейского AI Act: от запрещённых до низкорисковых систем; 🔵 для систем высокого риска обязательны оценка соответствия, регистрация и человеческий надзор; 🔵 закреплены принципы человекоцентричности, прозрачности, безопасности и национального суверенитета; 🔵 регулируются модели общего назначения (GPAI), устанавливая требования к документации, авторскому праву и кибербезопасности; 🔵 создаются регуляторные песочницы, Национальный фонд развития ИИ и налоговые стимулы для стартапов. 🧑‍⚖️ Контроль за исполнением и санкции За надзор будет отвечать Национальная комиссия по ИИ, при участии Министерства науки и технологий. За серьёзные нарушения предусмотрены штрафы, привязанные к мировому обороту, по аналогии с AI Act. 🔍 Нарушениями считаются 🔵 разработка или использование запрещённых систем, 🔵 несоблюдение требований к системам высокого риска, 🔵 нарушение правил регистрации, отчётности и оценки соответствия, 🔵 воспрепятствование проверкам или предоставление ложных данных. 🗓️ Внедрение закона будет поэтапным: с 2026 по 2029 год – от создания Национальной комиссии и Фонда развития ИИ до полного введения требований для систем высокого риска и переходного периода для действующих решений. #Vietnam #AI #Regulation
👍 6
3
🔥 3
Пост от 28.10.2025 12:15
328
0
8
🧠 OpenAI создала Экспертный совет по вопросам благополучия и ИИ Компания представила Expert Council on Well-Being and AI - группу из восьми ведущих исследователей в области психологии, психиатрии и взаимодействия человека с технологиями. Совет будет помогать формировать подходы OpenAI к созданию безопасных и поддерживающих пользователей функций в ChatGPT и Sora. 👥 В совет вошли эксперты из Гарварда, Оксфорда, Стэнфорда и Georgia Tech, исследующие влияние технологий на эмоции, мотивацию и психическое здоровье. Чем будет заниматься совет? 🔵 консультировать OpenAI по вопросам этичного и безопасного поведения моделей в чувствительных ситуациях; 🔵 помогать разрабатывать инструменты вроде родительского контроля и систем оповещения о рисках для подростков; 🔵 формировать представление о том, как ChatGPT может улучшать эмоциональное благополучие пользователей. 🌐 Параллельно OpenAI сотрудничает с врачами и психиатрами из Global Physician Network, чтобы проверять реакции модели в реальных сценариях и адаптировать политику компании с учётом клинических рекомендаций. #OpenAI #AI #Safety
👍 6
3
🔥 2
🤡 1
Пост от 27.10.2025 15:02
344
0
4
🌐 ИИ в мире: топ-5 событий прошедшей недели 1️⃣ Вьетнам представил законопроект об ИИ, основанный на риск-ориентированном подходе ЕС. 2️⃣ Индийское правительство опубликовало проект правил по обязательной маркировке ИИ-контента. 3️⃣ Reddit подал в суд на Perplexity и другие компании за веб-скрейпинг комментариев пользователей в промышленных масштабах для обучения ИИ-моделей. 4️⃣ Более 800 публичных личностей подписали открытое письмо, призывающее к запрету на разработку AGI до тех пор, пока не будет достигнут широкий научный консенсус относительно его безопасности и управляемости. 5️⃣ OpenAI усилила защитные меры Sora 2 после жалобы актера Брайана Крэнстона, чьё изображение и голос пользователи сгенерировали без его согласия.
Изображение
👍 8
5
🙏 4
Пост от 27.10.2025 15:02
284
0
5
🇷🇺 ИИ в России: топ-5 событий прошедшей недели 1️⃣ Владимир Путин заявил, что суверенные модели ИИ можно создать только на основе российской культуры, языка и традиционных ценностей. 2️⃣ Совбез РФ обсудил угрозы национальной безопасности, связанные с использованием ИИ, и предложил создать профильные центры и нормативную базу для их нейтрализации. 3️⃣ Минцифры России в течение 2026 года планирует поэтапный запуск базы данных для обучения государственных ИИ-сервисов. 4️⃣ Минобрнауки России сформирует каталог наиболее эффективных практик использования ИИ в системе высшего образования. 5️⃣ Председатель Верховного суда Игорь Краснов поручил активнее внедрять ИИ в работу судов для анализа практики и цифровизации правосудия.
Изображение
👍 8
4
🙏 4
Смотреть все посты