Каталог каналов Новое Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Мониторинг Новое Детальная статистика Анализ аудитории Telegraph-статьи Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы
Защита от накрутки Создать своего бота Продать/Купить канал Монетизация

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «Клуб CDO»

Клуб CDO
2.1K
1.6K
88
58
8.1K
Сообщество профессионалов в области работы с данными и искуственным интеллектом
Подписчики
Всего
3 595
Сегодня
+1
Просмотров на пост
Всего
790
ER
Общий
20.31%
Суточный
13.7%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 2108 постов
Смотреть все посты
Пост от 08.12.2025 17:12
469
0
16
Дайджест статей Real-time data quality monitoring: Kafka stream contracts with syntactic and semantic test - https://engineering.grab.com/real-time-data-quality-monitoring - Статья рассказывает о подходе Grab к обеспечению качества данных в режиме реального времени с помощью контрактов потоков Kafka и синтаксических и семантических тестов. Предвидеть, чтобы предотвратить: как анализ трендов помогает избегать аварий - https://habr.com/ru/articles/973638/ - Статья рассказывает о том, как использование анализа трендов и предиктивной аналитики позволяет выявлять потенциальные неисправности и предотвращать аварии на предприятиях. Архитектура высоконагруженных RAG-систем: 10 стратегий оптимизации чанкинга и интеграция с Weaviate, Qwen / Llama /Gemma - https://habr.com/ru/companies/oleg-bunin/articles/967102/ - Статья описывает ключевые методы оптимизации чанкинга в масштабируемых RAG-системах и варианты интеграции с векторными базами и языковыми моделями, такими как Weaviate, Qwen, Llama и Gemma. Нужно ли аналитику данных машинное обучение — и как его освоить - https://habr.com/ru/companies/yandex_praktikum/articles/966660/ - Статья рассказывает о том, зачем специалисту по данным разбираться в машинном обучении и какие шаги помогут начать его изучение. Building Self-Healing Data Pipelines - https://dzone.com/articles/building-self-healing-data-pipelines - Статья рассказывает о создании самовосстанавливающихся каналов обработки данных, способных автоматически обнаруживать и устранять ошибки для повышения надежности систем обработки данных. StarRocks 4.0: Real-Time Intelligence on Lakehouse - https://habr.com/ru/articles/973110/ - Статья рассказывает о возможностях и нововведениях StarRocks 4.0, обеспечивающей интеллектуальную обработку данных в реальном времени в архитектуре Lakehouse. Больше, чем BI: 23 фичи Luxms BI, которыми мы гордимся. Часть 3: решения для специализированных задач - https://habr.com/ru/companies/luxms_bi/articles/972946/ - Статья представляет третью часть обзора возможностей Luxms BI и рассказывает о специализированных решениях, которые помогают эффективно решать узкопрофильные бизнес-задачи. Выбираем архитектуру данных для компании: руководство от дата-инженера - https://habr.com/ru/companies/magnus-tech/articles/937470/ - Статья представляет собой подробное руководство по выбору оптимальной архитектуры данных для компании с учетом бизнес-потребностей и технических особенностей. Retrieval-Augmented Generation (RAG): глубокий технический обзор - https://habr.com/ru/articles/931396/ - Статья представляет глубокий технический разбор архитектуры Retrieval-Augmented Generation (RAG), объединяющей возможности поиска и генерации текста для улучшения качества ответов нейронных моделей. OpenAI: Scaling PostgreSQL to the Next Level - https://www.pixelstech.net/article/1747708863-openai%3a-scaling-postgresql-to-the-next-level - Статья описывает, как OpenAI масштабировала PostgreSQL для поддержки высоких нагрузок и обеспечения высокой доступности в своих проектах.
Пост от 05.12.2025 11:50
822
1
41
ИИ-аналитик — это новый слой взаимодействия с данными, который превращает традиционные отчёты и дашборды в диалог. По сути, это разговорный интерфейс, который понимает, что пользователь хочет узнать, объясняет «что произошло», отвечает «почему» и предлагает «что делать дальше». В материале ниже подробно разбирается техническая архитектура таких систем — от обработки запроса до валидации результата и управления контекстом. Чтобы такой ИИ-аналитик работал корректно, нужна чёткая цепочка модулей. Сначала — понимание намерения пользователя: NLU/LLM-модели, которые извлекают цели, метрики, измерения, фильтры. Далее — семантический слой с бизнес-глоссарием, онтологиями, синонимами и правилами агрегаций, который связывает человеческие термины с реальными данными. К этому добавляются метаданные: описания колонок, lineage, качество и свежесть данных, а также индексы с эмбеддингами для поиска нужного контекста. Не менее важна часть, отвечающая за корректность и безопасность. Планировщик действий генерирует запросы, проверяет их, выбирает источник и учитывает политики доступа. Далее валидационный слой проверяет совместимость мер и измерений, временную логику и отклонения от эталонных значений. Контекст проходит свой собственный pipeline: обновляется, тестируется, версионируется и наблюдается. Параллельно система обеспечивает безопасность — от PII-маскирования до доменной терминологии и аудита. Главный вывод авторов: точность ответа ИИ-аналитика зависит не столько от размера модели, сколько от глубины понимания смысла данных. Для этого нужен подход «context engineering» — выстраивание цепочки поставки контекста. Это значит: не просто «загружать всё в промпт», а структурировать знания, сочетать семантическое сходство с проверками по реальным данным и учитывать организационный контекст. Контекст живой: его нужно обновлять, уточнять, тестировать и масштабировать. Практически это означает работу в непрерывной петле: ИИ помогает ускорить рассуждение и предложить гипотезы, а люди уточняют семантику, согласуют определения и проверяют смысл. Команды, которые смогут наладить эту совместную «семантическую фабрику», получат действительно работающего ИИ-аналитика — не игрушку с отчётами, а системного помощника, который понимает бизнес, отвечает последовательно («what → why → what next») и помогает принимать решения. https://metadataweekly.substack.com/p/context-engineering-for-ai-analysts
👍 5
Пост от 03.12.2025 14:16
733
0
9
🔥Приём заявок на Data Award 2026 в самом разгаре! 🏆 Хотите, чтобы вашу data‑команду заметили? Участвуйте в Data Award 2026 — престижной премии для data‑driven организаций и директоров по данным! 👉 Подать заявку Почему это важно? Data Award — авторитетная награда в data‑сообществе, которая проводится уже 8 лет подряд. Её престиж подтверждает независимый экспертный совет: в него входят ведущие CDO и признанные эксперты IT‑отрасли. Что нового в сезоне 2026? ✅ Расширенный список номинаций ✅ Отдельные категории для BI‑решений и ИИ‑агентов ✅ Особое внимание проектам из регионов России и СНГ Наши принципы • фокус на инновационность проектов; • независимая оценка экспертов; • прозрачность конкурсного отбора. Зачем участвовать? Участие в Data Award — это: • признание профессионального сообщества; • укрепление позиций компании на рынке; • мотивация команды; • усиление HR‑бренда. Станьте частью истории развития data‑индустрии в России! Сроки и условия • Приём заявок: до 15 февраля 2026 г. • Публикация интервью номинантов: до 6 апреля 2026 г. • Подведение итогов: конец апреля — начало мая 2026 г. • Церемония награждения: 14 мая 2026 г. Важно: участие в премии бесплатное! Как принять участие? 0. Перейдите на официальный сайт и подайте заявку. 1. При возникновении вопросов свяжитесь с организаторами: ◦ email: DataAward@osp.ru, abramova@osp.ru #DataAward2026 #data #премия #IT #инновации
Изображение
👍 5
2
🔥 1
Пост от 03.12.2025 12:40
740
1
7
Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude и попыталась ответить на главный вопрос про ИИ: насколько он реально ускоряет работу, а не только впечатляет демо. По их оценке, текущие модели дают потенциал роста производительности в 1,8% в год — почти вдвое выше недавних темпов США. При этом медианная экономия времени на конкретной задаче — около 80%: типичная задача, которая без ИИ заняла бы полтора часа, с Claude превращается в несколько десятков минут. Важно, что метод опирается не на лабораторные соревнования людей и моделей, а на реальные рабочие чаты. Claude для каждой беседы оценивает, сколько времени заняла бы задача у компетентного специалиста без ИИ и сколько ушло с его помощью, и на этом разнице строится оценка. Чтобы проверить, насколько такие «машинные прикидки» далеки от реальности, их сравнили с реальными JIRA‑задачами разработчиков: корреляция оценок Claude с фактическим временем выполнения — 0,44 против примерно 0,50 у оценок самих разработчиков. То есть модель, по крайней мере, не сильно хуже живых инженеров в умении прикидывать трудозатраты. Где выигрыши максимальны? В высокооплачиваемых ролях и сложных задачах. Сильнее всего сжимаются как раз «тяжёлые» штуки на ~2 часа: разработка и рефакторинг кода, юридический анализ, управленческие и аналитические задачи. Для таких кейсов время может падать на порядок, особенно когда речь про длинные документы, сложные расчёты или подготовку материалов. А вот работы с низкой оплатой — логистика, обслуживание, приготовление еды и прочий преимущественно физический труд — почти не ускоряются: там просто мало того, что можно отдать на обработку текстовому ИИ. Вывод для людей и компаний довольно прагматичный. Во‑первых, 1,8% в год — это не «пророчество», а потенциал при широком внедрении, без учёта времени на проверку и доработку ответов модели: реальные выигрыши зависят от того, насколько вы перестроите процессы под работу с ИИ. Во‑вторых, именно сложные и дорогие задачи дают максимальный эффект, а значит, рациональная стратегия — не ждать «магического автопилота», а сознательно выносить в Claude самые длинные и мозгоёмкие куски работы, оставляя себе постановку задач, проверку качества и принятие решений. Именно так ИИ превращается из игрушки в устойчивый прирост продуктивности. https://www.anthropic.com/research/estimating-productivity-gains
👍 3
Пост от 02.12.2025 12:20
797
0
26
Вышла интересная и довольно детальная статья Netflix о том, как они интегрируют свой Foundation Model в персонализацию: от главной страницы до разных продуктовых поверхностей. Идея простая, но мощная: вместо зоопарка специализированных рекомендательных моделей сделать один крупный модельный «слой предпочтений» и раздавать его знания вниз в приложения. Авторы честно фокусируются не на хайпе вокруг трансформеров, а на практических паттернах в проде: три способа интеграции (эмбеддинги, сабграф и fine-tuning), их стоимость, влияние на метрики и инфраструктурные последствия. Первый компромисс — три уровня интеграции = три профиля затрат и эффекта. Эмбеддинги из Foundation Model через Embedding Store — самый дешёвый и быстрый путь: просто подмешать новые признаки в уже существующие модели или кандидаты, минимум изменений в пайплайне, но и эффект ограничен свежестью и глубиной сигналов. Сабграф-интеграция, когда FM встраивается как часть графа приложения, даёт максимально актуальные сигналы и заметный прирост метрик, но резко усложняет обучение, фичеген и инференс. Fine-tuning поверх FM превращается в быстрый «де‑факто» бэйзлайн для новых приложений: не нужно с нуля придумывать архитектуру, достаточно дообучить под свою задачу — зато растёт риск фрагментации зоопарка моделей и техдолга. Второй блок компромиссов — свежесть против стабильности. Netflix переобучает Foundation Model на месячном горизонте и ежедневно дообучает его на свежих данных, генерируя новые эмбеддинги для профилей и тайтлов. Из‑за этого эмбеддинги неизбежно «дрейфуют», поэтому им пришлось внедрять стабилизацию пространства, чтобы downstream‑модели не сходили с ума от прыгающих признаков и могли потреблять эмбеддинги как стабильные features. Чтобы побороть «staleness», платформа двигается в сторону near‑real‑time обновлений эмбеддингов по действиям пользователя в сессии — но это уже требует более лёгких моделей, грамотной оркестрации и внимательного контроля латентности. Дальше всплывает другая проблема — фичеген как узкое место. Для сабграф‑подхода нужно уметь стабильно и эффективно генерировать все входы для FM в рамках приложения, а это дополнительные джобы, вычисления и сложность пайплайна. Команда решает это через переиспользование инфраструктурных задач и оптимизацию compute, а на инференсе выжимает максимум, разделяя сабграф и выполняя его один раз на профиль с кэшированием и шарингом результата на множество айтемов в запросе. Так удаётся держать SLA ранжирования при большом количестве кандидатов и всё ещё пользоваться преимуществами Foundation Model. И, наконец, заметно, как окупается именно платформенный подход. Единый Embedding Store с версионированием и онлайн/оффлайн-доступом, стандартизированные API, дистилляция более лёгких копий модели и общий фреймворк fine-tuning снимают барьеры для продуктовых команд и делают FM обычной частью стека, а не «спецпроектом исследователей». В итоге три паттерна интеграции складываются в понятную матрицу: начинаем с дешёвых эмбеддингов, для high‑impact‑кейсов добавляем сабграф, а для новых приложений и специфичных целей используем fine‑tюненные варианты — осознанно принимая компромиссы по стоимости, сложности и техдолгу. https://netflixtechblog.medium.com/integrating-netflixs-foundation-model-into-personalization-applications-cf176b5860eb
👍 3
👏 2
Пост от 02.12.2025 10:10
745
0
17
▫️ Частота галлюцинаций у разных ИИ-моделей На графике - результаты довольно интересного эксперимента: исследователи скармливали разным ИИ выдержки из публикаций и просили найти ссылку на первоисточник, при этом все выдержки подбирались так, чтобы при поиске в Google первоисточник попадал в топ-3 И оказалось, что ИИ пока что значительно уступают сочетанию гугла и человека в этой задаче: Perplexity (рекордсмен по точности) дал неверную ссылку на первоисточник "всего" в 37% случаев, Grok-3 (анти-рекордсмен)... Наврал в 94% случаев! Самые всенародно любимые и широко использующиеся у нас ChatGPT и DeepSeek врали в 67% и 68% случаев соответственно
Изображение
😁 3
1
Пост от 01.12.2025 17:57
785
2
2
просто интересная картинка о долях крупнейших cloud провайдеров
Изображение
👍 3
👀 1
Смотреть все посты