Каталог каналов Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Каталог TGAds beta Мониторинг Детальная статистика Анализ аудитории Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «Клуб CDO»

Клуб CDO
2.0K
1.6K
88
58
8.1K
Сообщество профессионалов в области работы с данными и искуственным интеллектом
Подписчики
Всего
3 705
Сегодня
+2
Просмотров на пост
Всего
828
ER
Общий
19.73%
Суточный
15.1%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 2 000 постов
Смотреть все посты
Пост от 09.03.2026 13:47
322
1
8
Дайджест статей

📰: Architectural Standards for Data Products and AI Interactions: Emergent & Aligned Patterns
Ссылка: https://moderndata101.substack.com/p/architecture-data-products-ai-interactions?publication_id=1170209&post_id=188149190&isFreemail=true&r=15862q&triedRedirect=true
Вывод одной строкой: Успешная архитектура данных и ИИ-продуктов требует применения согласованных паттернов проектирования, которые обеспечивают масштабируемость, надежность и эффективное взаимодействие между компонентами системы через стандартизированные интерфейсы и протоколы обмена данными.

📰: Data Mesh vs централизованная модель: выбираем оптимальный подход к управлению данными
Ссылка: https://habr.com/ru/companies/vk/articles/1005846/
Вывод одной строкой: Выбор между Data Mesh и централизованной моделью управления данными зависит от масштаба организации, сложности доменов, зрелости команд и требований к автономности подразделений, при этом Data Mesh подходит для крупных компаний с множественными доменами данных, а централизованная модель эффективнее для небольших организаций с ограниченными ресурсами.

📰: Почему Lakehouse нельзя построить без Spark
Ссылка: https://habr.com/ru/companies/datasapience/articles/1007428/
Вывод одной строкой: Apache Spark является критически важным компонентом для построения архитектуры Lakehouse, поскольку обеспечивает единую платформу для обработки структурированных и неструктурированных данных с возможностями как пакетной, так и потоковой обработки, что делает его незаменимым для реализации концепции объединения преимуществ озер данных и хранилищ данных.

📰: Корпоративная память как инфраструктура: как мы построили RAG-систему внутри ИТ-компании с промышленной экспертизой
Ссылка: https://habr.com/ru/companies/zyfra/articles/1007356/
Вывод одной строкой: Построение корпоративной RAG-системы требует тщательного планирования архитектуры данных, выбора подходящих методов векторизации и индексации, а также создания эффективных механизмов поиска и ранжирования релевантной информации для обеспечения качественной работы с корпоративными знаниями.

📰: Инструментарий аналитика данных: что реально нужно освоить в 2026 году
Ссылка: https://habr.com/ru/articles/1007780/
Вывод одной строкой: Современному аналитику данных критически важно сосредоточиться на освоении SQL, Python, инструментов визуализации данных и базовых принципов машинного обучения, поскольку эти навыки остаются фундаментальными независимо от появления новых технологий и трендов в области данных.

📰: The Data Team’s Survival Guide for the Next Era of Data | Towards Data Science
Ссылка: https://towardsdatascience.com/the-data-teams-survival-guide-for-the-next-era-of-data/

📰: Data Ownership in Practice: Defining Decision Rights in Enterprise Data Governance
Ссылка: https://moderndata101.substack.com/p/data-ownership-in-practice-defining?publication_id=1170209&post_id=187760032&isFreemail=true&r=15862q&triedRedirect=true
Вывод одной строкой: Эффективное управление корпоративными данными требует четкого распределения прав принятия решений между владельцами данных, их хранителями и потребителями, что обеспечивает качество данных, соблюдение требований безопасности и максимизацию бизнес-ценности информационных активов.
👍 2
😁 1
Пост от 09.03.2026 00:30
519
3
13
Как можно пройти мимо материала с описанием того, как был разработан самый популярный на сегодняшний день AI-инструмент для разработчиков. Gergely Orosz поговорил с создателями Claude Code, и там есть на что посмотреть.

Сразу к ключевому: Claude Code — это легкий shell поверх модели. Вся логика работы формируется не алгоритмами, а самой моделью. Клиент определяет UI, даёт модели набор инструментов для работы с файловой системой и bash — и уходит с дороги. Команда сознательно пишет как можно меньше бизнес-логики. С каждым новым релизом модели они удаляют код — например, с выходом моделей 4.0 вырезали примерно половину системного промпта, потому что модель больше в нём не нуждалась.

Это противоположность тяжёлым agent frameworks с кучей явных состояний, FSM и сложных оркестраторов. И снова я вижу подтверждение: сдвиг парадигмы в пользу "дай задачу", а не "скажи как делать" даёт отличный результат в совокупности с моделями уровня Opus 4.6.

Изначально это был CLI-прототип, который через AppleScript показывал, какую музыку слушает разработчик. Настоящий момент наступил, когда прототипу дали доступ к файловой системе и bash: агент начал сам читать файлы, переходить по импортам и исследовать кодовую базу. Авторы называют это "product overhang" — модель уже умеет нечто мощное, но вокруг этого ещё нет продукта.

Дальше — вирусное распространение внутри Anthropic. Первый день внутреннего релиза — 20% инженеров. Пятый день — 50%. Была серьёзная дискуссия: не оставить ли инструмент как внутреннее преимущество. Решили, что публичный релиз даст больше данных о безопасности модели. Сейчас Claude Code генерирует больше 500 миллионов долларов годовой выручки, а рост использования за три месяца после релиза — больше чем в 10 раз.

Архитектура — подчёркнуто простая. Вместо Docker и VM всё выполняется локально. Самая сложная часть — система разрешений: перед каждым потенциально опасным действием агент спрашивает пользователя. Настройки прав многоуровневые — по проекту, по пользователю, по организации. Команды уже шарят файлы настроек между собой.

Стек выбирали по принципу "on distribution" — TypeScript, React, Ink, Bun. То, что модель уже хорошо знает. Результат: 90% кода Claude Code написано самим Claude Code.

Отдельная история — как выглядит AI-first инженерия в Anthropic. Claude делает первый проход всех код-ревью по компании, пишет security-ревью PR, почти полностью пишет тесты, триажит GitHub-issues и с первой попытки корректно решает 20-40% из них. При инцидентах агент сам подтягивает контакты из Slack, логи из Sentry и часто находит root cause быстрее человека.

Команда из дюжины инженеров делает 60-100 внутренних релизов в день, по 5 PR на инженера. При удвоении размера команды пропускная способность по PR выросла на 67% — обычно при быстром найме этот показатель падает.

Что меня зацепило больше всего: один из инженеров за два дня собрал около 20 рабочих прототипов одной фичи. Не мокапов — рабочих прототипов. Раньше за два дня ты был рад двум. AI-агенты меняют не просто скорость — они меняют саму экономику экспериментирования. А это для product-minded инженера важнее любого фреймворка.

https://newsletter.pragmaticengineer.com/p/how-claude-code-is-built
👍 7
👀 4
Пост от 08.03.2026 16:22
576
0
3
🎙 Курс «Основы управления данными (Data Governance)» | онлайн, 16–25 марта

ИТ-директоров и руководителей-стратегов в управлении данными приглашают на редкий курс — проходит только 1 раз в году в формате живого диалога и обмена опытом.

⚡️ Курс даст понимание, как выстроить ключевые процессы для обеспечения качества, прозрачности и надёжности данных в компании. Участники детально разберут модели, роли, метрики, запуск управления данными и реальные кейсы — в закрытом экспертном сообществе.

В программе курса:
– 9 модулей: от основ Data Governance (DG) до применения ИИ,
– разработка программы DG и системы метрик,
– разбор кейсов + готовый Excel-гайд по DG для вашей компании.

Участники получат:
– домашние задания с обратной связью, консультации с экспертом,
– сертификат участника и доступ к материалам курса.

Ведущий эксперт – Александр Бараков, руководитель департамента бизнес-аналитики в Авито

Забронировать место в потоке 2026 – на курсе осталось всего 5 мест!
Пост от 08.03.2026 12:17
611
0
4
Историческая страничка. На этом фото — Scott Building в King’s College. На самом верхнем этаже — окна комнаты J.11, где в 1931 году поселился 19-летний первокурсник по имени Алан Тьюринг.
Именно в King’s College он за три года получил первый класс по математике, стал Fellow в 23 года и написал работу «On Computable Numbers» — ту самую, где описал абстрактную машину, способную выполнить любое вычисление. По сути, он придумал концепцию компьютера до того, как появилась технология для его создания. Ему было 24.
Потом была Энигма, Блетчли-Парк, тест Тьюринга, основы искусственного интеллекта — всё это знают.
👍 11
🔥 2
👻 1
Пост от 06.03.2026 14:01
1 325
1
68
Все обсуждают, кто обучил модель покруче. Мало кто обсуждает, как эту модель потом эффективно крутить в продакшене. А между тем именно инференс — это то, за что компании платят каждый день.

Наткнулся на книгу "Inference Engineering" от Philip Kiely из Baseten. Сам пока не читал, но видел рекомендации от разработчиков, которым я доверяю.

Почему тема важная, особенно для крупных компаний: инференс — это не только про то, как гонять GPT-класса модели на кластерах. Это и про SLM, которые можно запускать ближе к пользователю, дешевле и быстрее. Когда у тебя тысячи запросов в секунду и бюджет не резиновый, умение выжимать максимум из железа на этапе инференса — это прямая экономия. И конкурентное преимущество.

Книга покрывает весь стек: от CUDA и GPU-архитектур до квантизации, speculative decoding и продакшен-инфраструктуры. 256 страниц, 7 глав, без воды.

И главное — она бесплатная. PDF можно скачать прямо на сайте. Когда тебе бесплатно дают структурированное знание по теме, в которой через пару лет будет дефицит специалистов — странно не воспользоваться.

https://www.baseten.co/inference-engineering/
👍 5
2
👀 1
Пост от 05.03.2026 22:46
837
1
5
The Pragmatic Engineer опросил 900+ инженеров и опубликовал результаты. Несколько вещей зацепили.

95% используют AI-инструменты минимум еженедельно, 75% — для половины и больше своей работы. Вопрос «использовать ли AI» закрыт. Теперь вопрос — какой из пяти инструментов сегодня.

Про агентов интересно: staff+ инженеры используют их чаще всего — 63.5%. Больше, чем джуны, больше и менеджеры. Те, кто понимает задачу глубже всего, быстрее всего делегируют её выполнение. Совпадение? Не думаю.
Ещё один момент, который объясняет многое: в больших компаниях (10К+ сотрудников) Copilot используют 56%. Не потому что он лучший — а потому что его купил procurement три года назад. В стартапах до 10 человек Claude Code — у 75%. Там просто берут то, что реально работает.

Вывод, который я сделал для себя: если рынок меняет лидера за восемь месяцев, инвестировать в глубокую кастомизацию под конкретный инструмент — так себе идея. Ставить на архитектуру, которую можно переключить, умея при этом выжимать максимум из текущего лидера.

https://newsletter.pragmaticengineer.com/p/ai-tooling-2026
👍 6
3
Пост от 05.03.2026 14:05
721
3
19
6 неудобных правд про AI в 2026 которые неприятно признать

Фаундеры, ощущение что половина рынка всё ещё живёт в 2023 году. Все продолжают обсуждать какая модель умнее — GPT, Gemini или Claude. Но это уже почти не имеет значения. Модели сходятся по качеству, open-source догоняет закрытые системы, стоимость падает. AI превращается в коммодити. Как электричество. Никто не выбирает "лучшую розетку" — все думают что от неё запитать. Выигрывает не модель, а продукт, интеграция и дистрибуция.

Вторая иллюзия — автономные AI-агенты которые вот-вот заменят команды. На практике компании масштабируют не агентов, а AI-workflow. AI встроен в процесс и забирает половину рутины. Банки используют для миграции кода, колл-центры для типовых запросов, фарма для анализа клинических данных. Не магия, не "AI заменил человека". Просто инженерия процессов — но там сейчас и лежат деньги.

Третье — исчезает технический барьер. Раньше маркетолог или операционщик стояли в очереди к разработчикам за дашбордом или скриптом. Теперь многое можно сделать самому через AI. Маркетологи могут написать код, сейлзы собирают внутренние инструменты, операционщики автоматизируют отчёты. Плохая новость для тех чья ценность была "я единственный кто это умеет". Хорошая — для тех кто понимает продукт и клиентов.

Четвёртое — эпоха prompt-инжиниринга заканчивается. Модели уже понимают кривые запросы. Узкое место теперь не в формулировке а в контексте. AI знает интернет но не знает ваши документы, планы и внутренние данные. Борьба идёт за доступ к контексту — почте, документам, календарям. Кто контролирует контекст пользователя, тот контролирует AI.

Пятое — реклама придёт в чат-боты. Никто её не любит но без неё лучшие модели останутся только за дорогой подпиской. Скорее всего реклама будет рядом с диалогом а не внутри ответа — иначе пользователи перестанут доверять.

И последнее. Сейчас редкая штука — экспертиза перезапускается. Нет людей которые "уже всё знают". Нет учебников. Выигрывают не самые умные и не самые технические. Выигрывают те кто быстрее тестирует гипотезы, встраивает AI в процессы, учится на ходу.

Вы уже встроили AI в реальные процессы компании? Или всё ещё спорите какая модель умнее?

👉 t.me/huntermikevolkov - залетай, мы тут про команды, которые перфомят

Буст каналу💪
👍 6
5
💯 5
🐳 1
Смотреть все посты