Поиск по каналам Каналы в закладках Мои каналы Поиск постов
Инструменты
Мониторинг упоминаний Детальная статистика Анализ аудитории Telegraph-статьи Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы
Защита от накрутки Создать своего бота Продать/Купить канал Монетизация

Телеграм канал «NoML Digest»

NoML Digest
719
143
135
64
1.7K
База знаний: noml.club
www.youtube.com/@NoML_community
dzen.ru/noml

Чат: @noml_community
По всем вопросам к @psnurnitsyn
Подписчики
Всего
2 337
Сегодня
0
Просмотров на пост
Всего
386
ER
Общий
37.34%
Суточный
37.7%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 6 из 719 постов
Смотреть все посты
Пост от 24.06.2025 13:15
1
0
0
Запись семинара про Scientific ML Михаил Лытаев (СПб ФИЦ РАН, ИТМО), Решение обратных задач методами глубокого обучения. YouTube | Дзен | RuTube (~1 час 30 минут).
Пост от 20.06.2025 17:08
442
0
5
Запись семинара Виталий Аксенов (ИТМО), Конкурентные приоритетные очереди и их применение. YouTube | Дзен | RuTube (~1 час 10 минут).
Пост от 17.06.2025 10:23
364
0
9
Семинар про многопоточную очередь ▫️ 18 июня (среда), 17:00 МСК ▫️ Google Meet→ ▫️ Трансляция YouTube→ Выступает: Виталий Аксенов, доцент ИТМО, руководитель совместной лаборатории ИТМО и ВК по распределённым вычислениям и магистерской программы «Программирование и Искусственный Интеллект». Член программных комитетов SmartData и Sysconf, соорганизатор международной школы SPTDC. Тема: Конкурентные приоритетные очереди и их применение Аннотация Приоритетная очередь является одной из фундаментальных структур данных. Например, она является базовым блоком в алгоритмах поиска кратчайшего пути и планировщиках с приоритетами. Чтобы ускорить эти алгоритмы, хочется использовать параллелизацию, а значит хочется иметь многопоточную версию приоритетной очереди. К сожалению, не всё так просто, так как есть явное узкое место — операция extractMin. Теория говорит, что невозможно избавиться от него и одновременно давать чёткие гарантии на операцию. Что же тогда делать? В этом докладе мы рассмотрим идеи, которые позволяют ускорить конкурентную приоритетную очередь. Затем, мы выясним, что очередь с точными гарантиями на самом деле не всегда нужна, и, как следствие, можно ослабить требования. Как итог, мы получим быструю очередь MultiQueue, основную идею которой (choice of 2) можно использовать в других областях, например, машинном обучении. Уровень сложности: средний. Ключевые слова: многопоточность, структуры данных, приоритетная очередь.
🔥 1
Пост от 10.06.2025 10:56
236
0
8
Семинар про Scientific ML ▫️ 11 июня (среда), 17:00 МСК ▫️ Google Meet→ ▫️ Трансляция YouTube→ Выступает: Михаил Лытаев (СПб ФИЦ РАН, Университет ИТМО) Тема: Решение обратных задач методами глубокого обучения Аннотация Математическая модель позволяет прогнозировать поведение объектов, зная их параметры и параметры внешней среды. Однако зачастую настоящий интерес представляет обратная задача, т.е. определение параметров системы по наблюдаемому (или желаемому) поведению. Классическими примерами обратных задач являются медицинская визуализация, сейсмическая разведка, дистанционное зондирование. Т.е. задачи, в которых непосредственное измерение параметров объекта чрезвычайно дорого или невозможно. Вместо этого интересующие параметры (например, внутреннее строение тела или места залегания полезных ископаемых) пытаются восстановить по данным косвенных измерений. Другим примером являются задачи конструирования метаматериалов и оптимальное управление, когда нужно определить параметры системы таким образом, чтобы она обладала желаемыми свойствами. Зачастую такие задачи не обладают никакими специальными свойствами, вроде линейности и выпуклости. Кроме того, обратные задачи относятся к классу некорректных: когда нельзя заранее сказать, имеет ли задача единственное физически адекватное решение. Хотя обратные и некорректные задачи активно изучаются классической теорией и методами функционального анализа, все еще не хватает универсальных методов, подходящих для широкого круга задач. Существующие решения как правило носят узкоспециализированный характер. Возникшие всего несколько лет назад методы т.н. scientific ML впервые предлагают универсальные методы решения обратных нелинейных задач, используя глубокое обучение. В докладе будут рассмотрены следующие подходы: — нейронные операторы (DeepONet, FNO), позволяющие обучать обратный нелинейный оператор; — физически информированные нейронные сети (PINN), позволяющие встраивать физические законы в функцию потерь; — нейронные дифференциальные уравнения (NeuralODE), позволяющие синтезировать модели на основе дифференциальных уравнений и нейронных сетей; — автоматическое дифференцирование численных схем, позволяющее строить солверы обратных задач на основе существующих программных реализаций решения прямой задачи. На простых примерах покажем, как ставятся обратные задачи, в чем заключается суть их некорректность. Уровень сложности: средний, глубоких знаний в области дифференциальных уравнений, функционального анализа и математической физики не требуется. Ключевые слова: scientific ML, некорректные задачи, нелинейные операторы, нейронный оператор, нейронное дифференциальное уравнение, автоматическое дифференцирование.
🔥 1
Пост от 03.06.2025 17:41
541
0
10
И еще про FL и конф. вычисления Также на майском созвоне про FL упоминались следующие материалы: ▫️ Евгений Попов, Что такое федеративное обучение: метод, который приведет к взрывному росту искусственного интеллекта, 2025 (~7 минут). ▫️ Stalactite — опенсорс фреймворк для VFL от ИТМО и Сбера: GitHub, пресс-релиз и материалы конференции ACM RecSys ’24: A. Zakharova et al., Stalactite: toolbox for fast prototyping of vertical federated learning systems, 2024 (~10-20 минут). ▫️ Отчёты-описания по направлениям и технологиям PPML от Ассоциации Больших Данных: — Общее: Технологии защищенной обработки данных: от защиты данных — к развитию ИИ, партнерским отношениям и экосистемной экономике, 2024 (~30 минут); — Крипто-анклавы: Конфиденциальные вычисления и доверенные среды исполнения, 2024 (~30 минут); — MPC: Конфиденциальные вычисления и доверенные среды исполнения. Secure Multiparty Computation, 2025 (~30 минут); — FL: Конфиденциальные вычисления и доверенные среды исполнения. Federated Learning, 2025 (~30 минут);
Пост от 03.06.2025 11:59
559
0
8
Мысли про FL и PPML Недавно у нас была дискуссия про FL и Privacy-Preserving ML (PPML) вместе с Дмитрием Масловым, Михаилом Фатюхиным, Денисом Афанасьевым, Евгением Поповым и Романом Постниковым: YouTube | Дзен | RuTube. Денис написал отличное саммари, но я может быть где-то дополню. ▫️ Потенциальных бизнес-кейсов объединения данных разных участников много, но оценить эффект от такого объединения заранее очень сложно, а то, что для бизнес-заказчика выглядит как пилот по FL (или другим методам конфиденциальной аналитики), на самом деле является непростым технологическим проектом. ▫️ Вообще ожидания от объединения данных разных владельцев обычно сильно преувеличены. Более того, если говорить про кейсы на табличных (структурированных) данных, то прямое объединение в лоб скорее всего ничего не даст, важны понимание бизнес смысла данных и интеллектуальный feature engineering над объединенными данными. Например, в тех же задачах антифрода большой прирост даёт анализ графа связей и расчет графовых признаков, а в случае федеративных и конфиденциальных вычислений, когда у разных участников есть только локальные части глобального графа, а глобальный граф никто не видит, эта задача непростая (но решаемая). ▫️ В контексте (финансовых) эффектов от объединения данных возникает еще вопрос ценообразования при использовании данных от разных владельцев. Ведь сами по себе данные стоимости не имеют (более того несут затраты: их надо хранить, накапливать и защищать), а стоимость всегда будет зависеть от конкретного бизнес-кейса. Получается, что стоимость может иметь инференс, а задача технологических провайдеров как раз в том, чтобы научиться справедливо разделять и транслировать эту стоимость от поставщиков данных к потребителям. ▫️ В целом если вспоминать разделение на горизонтальное федеративное обучение (HFL) и вертикальное (VFL), то область enterprise кейсов применения FL для безопасной коллаборации данных будет двигать VFL: объединение разных признаков для одного наблюдения, объединение признаков и целевого события, опять же федеративный feature engineering и контроль качества данных, … ▫️ Можно выделить такие два направления задач, которые исследуются в FL: — FL для массовых распределенных вычислений на устройствах. Причем бывают ситуации, в которых вопросы конфиденциальности вообще остаются за кадром, а важна именно эффективность вычислений на локальных и глобальных сегментах этих устройств (телефоны, беспилотный транспорт, рои дронов и т.д.). Особенности: большое количество устройств (десятки тысяч — миллионы), небольшие наборы данных на каждом устройств, ограничения на доступность устройств и топологию их связности. Здесь одна из основных задач: гарантировать сходимость методов обучения. — FL для безопасной агрегации данных. В бизнес кейсах применения таких как скоринг или антифрод всё наоборот: небольшое количество участников (десятки), большие датасеты у каждого из участников, и можно считать что инфраструктура участников доступна 24/7. А для обеспечения конфиденциальности потребуется связка FL + что-то еще: FHE, MPC, дифференциальная приватность. ▫️ Для PPML, включая FL, можно выделить такие основные технические сценарии: — Обогащение данных, и в более широком смысле обогащение информации. Я бы сюда включил и кейс федеративной валидации моделей, т.е. когда модель именно валидируется, а не дообучается на данных одного или нескольких участников. — Изоляция данных от разработчиков моделей. — Разделение данных и сред обучения/исполнения. ▫️ Само по себе FL не является средством криптографической защиты информации (СКЗИ). Но для табличных бизнес-кейсов может сработать аргументация, что компрессия данных в передаваемых весах и градиентах настолько высока, что конфиденциальных данных там точно нет. С другой стороны, есть, например, атаки, направленные на восстановления целевой переменной, да и истории про атаки на FL на неструктурированных данных у всех на слуху. А когда в схему добавляется частичное или полное гомоморфное шифрование, то это уже криптография, причём такая, для которой пока нет стандартов.
👍 2
Смотреть все посты