Каталог каналов Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Каталог TGAds beta Мониторинг Детальная статистика Анализ аудитории Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «Клуб CDO»

Клуб CDO
2.5K
1.6K
88
58
8.1K
Сообщество профессионалов в области работы с данными и искуственным интеллектом
Подписчики
Всего
3 724
Сегодня
+2
Просмотров на пост
Всего
679
ER
Общий
16.87%
Суточный
13.9%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 2 532 постов
Смотреть все посты
Пост от 02.04.2026 18:57
197
1
15
Мы видим AI везде, кроме статистики

Сегодня обсуждали парадокс, который, имхо, объясняет 90% разочарований от AI.

Солоу, нобелевский лауерат по экономике, как-то заметил:
Мы видим компьютеры повсюду, только не в показателях производительности

Компании массово покупали компьютеры, но производительность не росла. Звучит знакомо?

Собственно, тот же парадокс сейчас: Goldman Sachs пишет, что на макроуровне пока нет значимой связи между внедрением AI и производительностью. До 95% AI пилотов не проходят cost-benefit. CEO покупают подписки, но ROI не видно.

J-Curve theory объясняет почему. Когда приходит новая GPT (general-purpose technology) - электричество, компьютеры, AI - мы входим в фазу инвестиций, в которой производительность ПАДАЕТ. Не потому что технология не работает, а потому что:

1) Нужно переучиваться, нужно менять процессы, это вызывает трение. Мы начинаем покупать всем Claude — затраты растут. Тратим время на обучение — output временно падает. В отчётности это выглядит как убыток, потому что реорганизация, переобучение — это всё учитывается как операционные затраты, а не как инвестиции. Причем это не только про бухучет, лучшие умы и значительные ресурсы перенаправляются на создание новой инфраструктуры и процессов.

2) Лаг между adoption и результатом. С электричеством было ~40 лет. С компьютерами ~25. Фабрики сначала просто воткнули электромоторы вместо паровых — ноль эффекта. Просто замена инструмента без перестройки процессов не дает почти ничего - и это имхо именно то, что происходит со многими сейчас. Рост тогда пришёл когда полностью перепроектировали фабрику, поняли что можно подвести электричество к каждому рабочему месту и тп.

3) Может быть, производительность и растёт — но измеряемая производительность падает. Ты лично пишешь код в 3 раза быстрее, но на уровне компании это пока не видно. Цепочка от кода до клиента длинная, и AI пока ускорил только один кусок. Как сказал недавно один участник курса: "Мы построили фабрику софтверную, но теперь нам нужны заказы". Очень напоминает Цель-2 Голдратта

Вот что меня зацепило: из-за этого разрыва могут быть поспешные выводы о том, что технология не работает. И это бьёт сильнее по большим компаниям — чем больше людей и процессов, тем меньше рост индивидуальной производительности влияет на общий результат. Устранение узкого места в одном месте не решает проблему в другом. Прям теория ограничений.

А у маленьких команд — наоборот. Один человек с Claude Code может заменить целый отдел — и это сразу видно в выручке, а не через 20 лет. У нас 5 человек делают то, на что обычно нужно 12-15. Не потому что мы гении — потому что нам меньше перестраивать.

Имхо, хороший майндсет, который стоит держать в голове:
- Если ваш CEO говорит «попробовали AI, не работает» — покажите ему J-Curve. Скорее всего, вы в investment phase и выводы преждевременные
- Если вы маленькая команда — у вас преимущество. Пока корпорации пытаются «масштабировать AI adoption», вы просто работаете быстрее

На эту тему очень понравился, кстати, ресурс jobsdata.ai (скриншот в аттаче) — чувак собирает все релевантные статьи и исследования на тему влияния AI на рынок труда, плюс есть чатбот, которому можно задать вопросы по своей индустрии.
Изображение
👍 5
Пост от 02.04.2026 11:04
397
2
12
Коллеги, обратите внимание на мероприятие

Как использовать AI для анализа метаданных в СУБД и BI: практика применения LLM и RAG 🤖

Во многих компаниях data catalog уже внедрен, но не работает как инструмент. Метаданные устаревают, доверие к данным падает, аналитики продолжают искать информацию вручную, а команда DWH остается перегруженной.

📆 9 апреля в 11:00 (МСК) пройдёт бесплатный онлайн-вебинар «Как использовать AI для анализа метаданных в СУБД и BI: практика применения LLM и RAG», где вы узнаете, как изменить этот подход с помощью AI.

👨‍💻 Спикер: Павел Хамрин — руководитель AI-направления Lasmart. Более 10 лет в аналитике и DWH.

В программе вебинара:
— почему data catalog не работает на практике: неактуальные метаданные, отсутствие доверия, перегрузка команды;
— как LLM автоматизирует описание таблиц, дашбордов и бизнес-логики без ручной поддержки;
— как работает RAG для поиска данных, контекста и анализа связей (data lineage);
— архитектура решения и roadmap внедрения без перестройки текущих систем.

Кому будет полезно:
Data-инженерам, CTO, CDO, Head of BI и DWH, Data-аналитикам и Data Scientist

🔗 Регистрация по ссылке
👍 3
Пост от 02.04.2026 09:54
165
1
2
Коллеги, обратите внимание на мероприятие

Большинство компаний сейчас проходят одну и ту же стадию: бюджет на ИИ выделен, пилот запущен, через полгода — тишина. Не провал, не успех, просто "не взлетело". И никто особо не понимает почему.

Команда Loginom собрала вебинар с говорящим названием — "Как потратить бюджет на ИИ и не добиться ничего". Не мотивационный контент про то, как ИИ изменит ваш бизнес, а разбор по существу: почему LLM-проекты умирают не от плохой технологии, а от неправильной архитектуры аналитических процессов и отсутствия данных, которым можно доверять.

Разберут три вещи, которые реально стоит знать перед тем как подписывать бюджет на ИИ-инициативы:
— где LLM работают, а где создают иллюзию работы
— как выстроить архитектуру, при которой инвестиции не превращаются в дорогой эксперимент
— как получать от ИИ воспроизводимые результаты, а не красивые демо

Спикеры — директор Loginom Алексей Арустамов и архитектор аналитических систем Евгений Стучалкин.

Для тех, кто уже внедряет или планирует внедрять ИИ в аналитику — и хочет понять, что реально работает, а что хорошо выглядит в презентациях.

Регистрация: https://loginom.ru/announce/webinar-ai-without-illusions?utm_source=tg-lg&utm_medium=post&utm_campaign=webinar-ai
Изображение
👍 1
Пост от 02.04.2026 07:19
409
2
5
А пока космический корабль Orion продолжает свой полет, давайте посмотрим на фотографии запуска ракеты SLS в рамках миссии Artemis II от фотографов из Космического центра имени Кеннеди📸

Взлет🚀

#nasa #orion #sls #artemis #artemis2
👍 4
1
Пост от 02.04.2026 07:19
399
2
1
Красиво пошла :)
1
Пост от 01.04.2026 08:49
508
8
13
Может ли у ИИ появиться сознание? Лично я сильно сомневаюсь. Причём сомневаюсь не в духе "пока не получается" — а в духе "это фундаментальное ограничение нашего мира". Что-то вроде скорости света. Которую нельзя не только преодолеть, но и достигнуть. Можно асимптотически приближаться, тратя бесконечную энергию — и всё равно не дойти. С сознанием, мне кажется, ровно та же история. Его нельзя "сгенерировать" масштабированием вычислений. Это другая природа.

И вот 93-летний нобелевский лауреат Роджер Пенроуз выступает на Breakthrough Discuss 2025 в Оксфорде с докладом "Why Intelligence Is Not a Computational Process" — и по сути говорит то же самое. Причём говорит это 35 лет подряд. И за 35 лет никто его не опроверг.

У Пенроуза красивый аргумент. Он начинает с теоремы Гёделя: в любой формальной системе есть истинные утверждения, которые система не способна доказать. Но человек способен понять, что они истинны — не через применение правил, а через понимание того, почему правила работают. "Понимание зачем" — не "выполнение как". Калькулятор складывает числа. Человек понимает, что такое сложение. Разница не количественная — она качественная. Никакое наращивание мощности калькулятора не превратит "как" в "зачем".

Дальше он перебирает всю известную физику: где может прятаться не-вычислимость? Ньютон — вычислим. Максвелл — вычислим. ОТО — вычислима. Уравнение Шрёдингера — вычислимо. Остаётся одно место: коллапс волновой функции. То самое, где квантовая механика, по его формулировке, "не совсем правильна".

И вот тут его ключевое различие. Классическую реальность можно установить — спросить у объекта "какова ты?" и получить ответ. Квантовую реальность установить нельзя — можно только подтвердить. Нельзя спросить у электрона "куда ты вращаешься?". Можно предложить направление и получить да или нет. Сознание, по Пенроузу, может работать именно в этом зазоре — в квантовой реальности, которая ведёт себя странно по отношению ко времени, почти ретрокаузально.

Сам Пенроуз подкупающе честен: "У меня нет теории. Я только указываю, что это может быть куда тоньше, чем компьютер." За 35 лет — не теория, а направление поиска. Но направление, которое никто не закрыл.

А индустрия тем временем каждый квартал рапортует: больше параметров, больше compute, больше данных — вот-вот появится AGI. Это как строить ракету побольше в надежде обогнать свет. Лететь можно очень быстро. Делать впечатляющие вещи — тоже. Но если лимит фундаментальный, никакой масштаб не поможет.

https://www.youtube.com/watch?v=iTVN6tFknCg
4
🤔 2
🦄 2
Пост от 31.03.2026 21:36
637
3
24
Субагенты решают конкретную физическую проблему LLM — деградацию при росте контекста.

Формально Claude держит 200k токенов. Gemini — миллион. На практике стабильная работа обрывается где-то на 100-200k, дальше модель «видит» текст, но всё хуже его учитывает. Stanford называл это «Lost in the Middle»: важные решения из середины длинного диалога просто игнорируются.

Субагент стартует с чистого листа. Оркестратор получает только итоговое резюме — не сотни строк логов, не содержимое прочитанных файлов, не историю. Только результат. Контекст остаётся чистым.

И отсюда следует нетривиальный вывод.

Если субагент работает хорошо ровно тогда, когда получает чёткое, изолированное задание — то качество всей системы начинает определяться не мощностью модели и не количеством агентов. Оно определяется качеством декомпозиции задачи.

Статья на Хабре это признаёт: планировщик — самая важная роль во всей цепочке. Без хорошей декомпозиции даже идеальные субагенты делают не то.

Мы привыкли думать о качестве промпта — что и как написано в запросе. Теперь появляется другой уровень: как задача разбита на атомарные единицы. Какой контекст получает каждая. Что возвращает.

Это отдельное инженерное мышление. Новое искусство проектирования — и пока оно не формализовано, результат работы агентов будет непредсказуемым независимо от модели.

https://habr.com/ru/articles/1006602/
👍 2
Смотреть все посты