Каталог каналов Мои подборки Мои каналы Поиск постов Рекламные посты
Инструменты
Каталог TGAds Мониторинг Детальная статистика Анализ аудитории Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «Клуб CDO»

Клуб CDO
2.6K
1.6K
88
58
8.1K
Сообщество профессионалов в области работы с данными и искуственным интеллектом
Подписчики
Всего
3 908
Сегодня
0
Просмотров на пост
Всего
862
ER
Общий
20.22%
Суточный
13.6%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 2 599 постов
Смотреть все посты
Пост от 12.05.2026 19:16
245
0
13
Netflix продолжает радовать общественность не только видео контентом но и своим блогов и опубликовал на днях новую статью "Democratizing Machine Learning at Netflix: Building the Model Lifecycle Graph"

Когда ML живёт в одном вертикали, инфраструктуры discovery не нужно. Все знают, у кого что. Как только ML расползается на несколько доменов — модели одной команды становятся невидимыми для других. Это и есть момент, когда приходится строить что-то поверх.

Netflix описывает Metadata Service (MDS) - внутреннюю систему, которая строит Model Lifecycle Graph: единый граф связей между моделями, фичами, пайплайнами, экспериментами и датасетами поверх разнородного ML-стека.

Проблема, которую MDS решает - рост ML за пределы исходного домена персонализации. Десять лет назад Netflix делал ML в одном вертикале на одном стеке. Сейчас - Personalization, Studio, Payments, Ads и далее. Десятки команд, разные tech stacks, разные business metrics, разные mental models. Каждая команда оптимизирует локально. Кросс-доменного переиспользования моделей и фич не происходит, потому что инфраструктуры discovery нет. Конкретный пример из поста: Studio строит content embeddings для пост-продакшена - ровно те же эмбеддинги нужны Ads под context matching и Personalization под episodic-рекомендации. Но никто про их существование не знает.

Решение устроено так. События из всех ML-систем (Model Registry, Pipeline Orchestrator, Experimentation Platform, Feature Store, Dataset Platform) льются в MDS через Kafka и SNS/SQS. События тонкие - только идентификатор и тип. На каждое событие сервис сам идёт в source-of-truth за полным состоянием - это снимает проблему ordering и дропнутых сообщений. Дальше нормализация под глобальные AIP URI, запись в Datomic как primary store и Elasticsearch для поиска. Cross-domain связи собираются фоновыми задачами через многошаговый inference, потому что ни одна источниковая система это знание в одиночку не держит. Поверх GraphQL и портал, где практик ходит по графу.

Самое интересное в этой истории не архитектура. Metadata-каталог решает социотехническую задачу: как заставить десятки команд эмитить унифицированные события и пользоваться общей системой идентификации. Netflix продавливает это через инфраструктурное принуждение - AIP URI единственный способ существовать в графе. Не эмитишь события - твоих сущностей в графе нет. Авторы сами это признают: качество графа ровно настолько, насколько дисциплинированы upstream. Это структурное ограничение всего класса metadata-каталогов, и оно никуда не девается.

https://netflixtechblog.com/democratizing-machine-learning-at-netflix-building-the-model-lifecycle-graph-5cc6d5828bb1
Пост от 12.05.2026 10:37
131
0
1
https://clck.ru/3Tbxx6
Пост от 11.05.2026 16:39
99
0
4
Собрал тут по заметкам основные законы и принципы software engineering, будем осваивать по одному :)
🔥 3
Пост от 11.05.2026 15:58
1
0
0
Пост от 11.05.2026 14:44
1
0
0
🎹 Инструмент — временная переменная: Брюс Стерлинг о главной ловушке AI-эпохи

Американский фантаст и основатель киберпанка Брюс Стерлинг выступил в Риме с лекцией, в которой сравнил происходящее с AI с историей технологических революций в музыке. Не с конкретным изобретением, а с самим паттерном.

Каждый раз, когда появлялась новая технология — запись звука, механическое пианино, телевидение, — она не уничтожала музыку. Она перемалывала предыдущий уклад в сырье для нового.

🎙️ Живое исполнение не исчезло, но изменилось навсегда

Когда появились восковые цилиндры, которые впервые позволили записывать звук, живое исполнение не исчезло. Но то, чем оно было — ритуал, физическое присутствие, совместное переживание, — изменилось необратимо.

Взаимодействия, которые всегда были человеческими, оказались механически редуцированы. Музыки стало больше, а человеческого в ней меньше.

🎹 Притча об эоломелодиконе

Стерлинг приводит пример Шопена. Когда молодому музыканту предложили продемонстрировать публике странный клавишный аппарат — «эоломелодикон», — он не испугался, а отыграл концерт и получил гонорар.

Писатель считает, что целью Шопена было не отвержение или принятие машины. Его целью было мастерство, которое он демонстрировал всегда. Независимо от того, играл он на обычном фортепиано или на странном новом инструменте.

Эоломелодикон через пару лет забыли навсегда. Шопена играют до сих пор.

🏢 Как это относится к AI

Этот паттерн стоит рассмотреть применительно к тому, что сейчас происходит с AI в корпоративном контексте.

Значительная часть дискуссии сосредоточена на инструментах:
❓какую модель внедрить
❓какой процесс автоматизировать
❓какого вендора выбрать

Но история технологических сдвигов учит простой вещи:
инструмент — это временная переменная.
Эоломелодикон корпоративных AI-платформ 2024–2025 годов будет забыт так же быстро, как и оригинал.

🔄 А что тогда не будет забыто?

Изменение самой среды. Многое из того, что привычно — процессы, роли, инфраструктуры, — будет перемолото. Не уничтожено, а именно переработано в основу для следующего слоя. Как живое исполнение не умерло с появлением записи, но стало чем-то принципиально другим.

💡 Практический вывод для технологических команд

❌ Фокус на конкретном AI-инструменте — это ставка на эоломелодикон.

✔️ Фокус на перестройке мышления, процессов и архитектуры принятия решений — это ставка на мастерство, которое переживет любую смену платформ.

#радар_трендов
Подписывайтесь на AI Inside в Max | ВКонтакте
👍 1
Пост от 11.05.2026 12:16
122
0
7
Небольшой воскресный оффтоп: OpenAI выкатили три голосовых модели в Realtime API (reasoning, транскрипция и синхронный перевод).

Последняя меня зацепила больше всего. GPT-Realtime-Translate обучали на тысячах часов аудио профессиональных синхронных переводчиков, именно поэтому модель не отвечает на вопросы и не выполняет инструкции, а только переводит.

Слушает и понимает 70+ языков, отвечает на 13, русский в том числе. Попробовать можно тут.

В демке двое говорят на французском и немецком, модель переводит обоих на английский в реальном времени.

Anthropic пугает дизайнеров и разработчиков, а OpenAI синхронных переводчиков 😄

@ai_for_devs
Пост от 11.05.2026 09:23
98
0
1
Дайджест статей

📰 BI-движок на остатках Cursor токенов за месяц
🔗 https://habr.com/ru/articles/1030948/
💬 Автор за выходные на остатках месячного лимита Cursor собрал кроссплатформенный аналог VertiPaq — DAX-движок на C# с TDD-сверкой против Power BI, плюс выполнение DAX внутри Markdown-отчётов вместо классических дашбордов.
💡 Вывод: стоимость воспроизведения нетривиальной BI-инфраструктуры на ИИ-кодинге упала до уровня «потратить остатки подписки за выходные» — это меняет переговорную позицию команд по отношению к вендорам и означает, что внутренние реализации узких BI-задач становятся реалистичной альтернативой лицензиям, а не теорией.

📰 Лаборатория решений DataLens: как российский BI помогает бизнесу принимать решения (по метаданным)
🔗 https://habr.com/ru/articles/1031892/
💬 Обзор конференции DataLens с точки зрения практика из фармы: эволюция корпоративной аналитики от Excel к платформенному BI на российском стеке.
💡 Вывод: российский рынок BI после ухода Power BI и Tableau консолидируется вокруг DataLens — для CDO в РФ это де-факто базовая ставка, а не одна из опций; имеет смысл оценивать кадровый и интеграционный долг при выборе альтернатив.

📰 Как мы автоматизировали аналитику маркетплейсов в Yandex DataLens
🔗 https://habr.com/ru/articles/1031902/
💬 Классический разбор перехода от «бизнес-логика в Google Sheets» к слоистой архитектуре: Python-загрузчики API WB/Ozon → BigQuery как сырой слой → SQL views как слой бизнес-логики → DataLens только как интерфейс, плюс Telegram-бот для мониторинга джобов.
💡 Вывод: главный сдвиг — вытащить бизнес-логику из таблиц и зафиксировать её в SQL-views поверх сырого слоя; это превращает аналитику из ручного ремесла в управляемый конвейер и снимает потолок масштабирования, упирающийся в количество людей, поддерживающих формулы.

📰 LinkedIn Consolidates Hiring Data Pipelines to Power AI-Driven Talent Systems
🔗 https://www.infoq.com/news/2026/05/linkedin-unified-hiring-platform/
💬 LinkedIn запустил унифицированную интеграционную платформу, стандартизирующую и сверяющую данные о найме между системами; заявлено сокращение времени онбординга на 72%, улучшение консистентности и полноты данных.
💡 Вывод: универсальный паттерн «фрагментированные источники → единая интеграционная платформа» воспроизводится во всех крупных AI-инициативах — без слоя, нормализующего данные, ИИ-агенты строятся на песке; это аргумент в пользу того, что master data management и data contracts становятся обязательной инфраструктурой для AI, а не «гигиеной для зрелых компаний».

📰 The Data Warehouse Concurrency Playbook
🔗 https://dzone.com/articles/dw-concurrency-playbook
💬 Сценарий «Super Bowl moment» для хранилища: что делать, когда одновременная нагрузка пробивает архитектурные допущения и DWH захлёбывается.
💡 Вывод: предсказуемая граница масштабирования у современных DWH — не объём данных, а конкурентность запросов; имеет смысл проектировать рабочие нагрузки с учётом worst-case concurrency (отдельные warehouses под BI, ETL и ad-hoc), а не средней нагрузки, иначе самый дорогой инцидент — это успешный маркетинг.

📰 RAG Done Right: When to Use SQL, Search, and Vector Retrieval
🔗 https://dzone.com/articles/rag-sql-search-vector
💬 Разбор того, когда использовать SQL, полнотекстовый поиск и векторный retrieval в RAG-пайплайнах и как их комбинировать.
💡 Вывод: «vector-only RAG» — это уже устаревший дефолт; зрелый RAG — это маршрутизация запроса по типу: структурные факты → SQL, точные термины → keyword search, семантика → vector; кто продолжает строить «всё через embeddings», платит за это точностью и стоимостью инференса.

📰 Как устроена ML-платформа Michelangelo и какие базовые принципы из неё важно усвоить
🔗 https://habr.com/ru/companies/yandex_praktikum/articles/1031378/
💬 Подробный разбор архитектуры Michelangelo от Uber — от ранней схемы 2015 года до зрелой версии с control plane (Pipeline/PipelineRun, Model, InferenceServer, Deployment), feature store (Hive + Cassandra → Palette), Horovod для distributed training и эволюции в сторону LLMOps; с проекцией на российские реалии.
👍 1
Смотреть все посты