Каталог каналов Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Каталог TGAds beta Мониторинг Детальная статистика Анализ аудитории Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «Клуб CDO»

Клуб CDO
2.5K
1.5K
88
58
7.3K
Сообщество профессионалов в области работы с данными и искуственным интеллектом
Подписчики
Всего
3 724
Сегодня
0
Просмотров на пост
Всего
611
ER
Общий
14.72%
Суточный
13.7%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 2 533 постов
Смотреть все посты
Пост от 03.04.2026 09:15
22
0
0
На прошлой неделе послушал доклад Анны Байдиной из Revolut - технического лидера их voice team. Тема: dialogue management в голосовых агентах. Казалось бы, нишевая история. На практике - хороший срез того, где реально ломается большинство голосовых продуктов.

Первый инсайт, который стоит зафиксировать: голос и текст - разные домены не по UX, а по физике. В текстовом чате лишние 3–4 секунды на ответ - нормально. В голосе те же 3–4 секунды - руинированная сессия и желание попросить живого оператора. Revolut ориентируется на P50 latency < 2 секунд. Это не KPI, это порог между "работает" и "не работает".

Второй момент: большинство команд, которые строят голосовых агентов, думают что задача - это STT + LLM + TTS. Сложили три модели — готово. Но есть четвёртый слой, без которого первые три не имеют смысла. Это dialogue management.

Что это такое? Это слой управления разговором, который решает один вопрос: сейчас говорить или слушать? Если STT — это уши, LLM — мозг, TTS — рот, то dialogue manager — это личность агента. Он определяет, перебивает ли агент пользователя, отвечает ли на правильный вопрос, или зависает в паузе и теряет нить.

Конкретный пример из доклада: пользователь говорит "я хочу купить... [пауза] ...пиво на 150 человек". Без dialogue management агент слышит паузу после "купить", решает что фраза закончена, отвечает на неполный запрос. С dialogue management - понимает, что пауза внутри фразы, ждёт конца, отвечает по существу.

Технически это решается через turn-taking - механизм определения конца реплики пользователя. Простое решение: VAD (Voice Activity Detector) + таймер. Молчание 700 мс — конец хода. Проблема: 700 мс из бюджета в 2 секунды — это огромная цена. Плюс ложные срабатывания на паузы внутри фраз.

Более сильное решение — аудионативные модели типа SmartTurn. Они используют те же сигналы, которые использует человек в живом разговоре: падение питча, снижение энергии, замедление ритма речи. Transformer-архитектура (encoder от Whisper) + классификатор. Быстрее и точнее VAD-based подхода. Revolut использует его в продакшене как основной механизм, с VAD-based fallback на 2 секунды.

Ещё одна деталь, которую легко пропустить: Revolut не смог просто переиспользовать свой существующий чатбот LLM внутри голосового агента. Архитектурно они сделали отдельный LLM + два вызова к chatbot API для получения ответов — именно чтобы вписаться в латентный бюджет. То есть задача оказалась не "взять готовый AI и добавить голос", а переосмыслить всю цепочку под жёсткое latency constraint.

Это честная инженерная история: не про то какая модель умнее, а про то как архитектура определяет что вообще возможно.


https://www.youtube.com/watch?v=onIFwG-5tuE
Пост от 02.04.2026 18:57
315
1
22
Мы видим AI везде, кроме статистики

Сегодня обсуждали парадокс, который, имхо, объясняет 90% разочарований от AI.

Солоу, нобелевский лауерат по экономике, как-то заметил:
Мы видим компьютеры повсюду, только не в показателях производительности

Компании массово покупали компьютеры, но производительность не росла. Звучит знакомо?

Собственно, тот же парадокс сейчас: Goldman Sachs пишет, что на макроуровне пока нет значимой связи между внедрением AI и производительностью. До 95% AI пилотов не проходят cost-benefit. CEO покупают подписки, но ROI не видно.

J-Curve theory объясняет почему. Когда приходит новая GPT (general-purpose technology) - электричество, компьютеры, AI - мы входим в фазу инвестиций, в которой производительность ПАДАЕТ. Не потому что технология не работает, а потому что:

1) Нужно переучиваться, нужно менять процессы, это вызывает трение. Мы начинаем покупать всем Claude — затраты растут. Тратим время на обучение — output временно падает. В отчётности это выглядит как убыток, потому что реорганизация, переобучение — это всё учитывается как операционные затраты, а не как инвестиции. Причем это не только про бухучет, лучшие умы и значительные ресурсы перенаправляются на создание новой инфраструктуры и процессов.

2) Лаг между adoption и результатом. С электричеством было ~40 лет. С компьютерами ~25. Фабрики сначала просто воткнули электромоторы вместо паровых — ноль эффекта. Просто замена инструмента без перестройки процессов не дает почти ничего - и это имхо именно то, что происходит со многими сейчас. Рост тогда пришёл когда полностью перепроектировали фабрику, поняли что можно подвести электричество к каждому рабочему месту и тп.

3) Может быть, производительность и растёт — но измеряемая производительность падает. Ты лично пишешь код в 3 раза быстрее, но на уровне компании это пока не видно. Цепочка от кода до клиента длинная, и AI пока ускорил только один кусок. Как сказал недавно один участник курса: "Мы построили фабрику софтверную, но теперь нам нужны заказы". Очень напоминает Цель-2 Голдратта

Вот что меня зацепило: из-за этого разрыва могут быть поспешные выводы о том, что технология не работает. И это бьёт сильнее по большим компаниям — чем больше людей и процессов, тем меньше рост индивидуальной производительности влияет на общий результат. Устранение узкого места в одном месте не решает проблему в другом. Прям теория ограничений.

А у маленьких команд — наоборот. Один человек с Claude Code может заменить целый отдел — и это сразу видно в выручке, а не через 20 лет. У нас 5 человек делают то, на что обычно нужно 12-15. Не потому что мы гении — потому что нам меньше перестраивать.

Имхо, хороший майндсет, который стоит держать в голове:
- Если ваш CEO говорит «попробовали AI, не работает» — покажите ему J-Curve. Скорее всего, вы в investment phase и выводы преждевременные
- Если вы маленькая команда — у вас преимущество. Пока корпорации пытаются «масштабировать AI adoption», вы просто работаете быстрее

На эту тему очень понравился, кстати, ресурс jobsdata.ai (скриншот в аттаче) — чувак собирает все релевантные статьи и исследования на тему влияния AI на рынок труда, плюс есть чатбот, которому можно задать вопросы по своей индустрии.
Изображение
👍 6
1
Пост от 02.04.2026 11:04
464
1
15
Коллеги, обратите внимание на мероприятие

Как использовать AI для анализа метаданных в СУБД и BI: практика применения LLM и RAG 🤖

Во многих компаниях data catalog уже внедрен, но не работает как инструмент. Метаданные устаревают, доверие к данным падает, аналитики продолжают искать информацию вручную, а команда DWH остается перегруженной.

📆 9 апреля в 11:00 (МСК) пройдёт бесплатный онлайн-вебинар «Как использовать AI для анализа метаданных в СУБД и BI: практика применения LLM и RAG», где вы узнаете, как изменить этот подход с помощью AI.

👨‍💻 Спикер: Павел Хамрин — руководитель AI-направления Lasmart. Более 10 лет в аналитике и DWH.

В программе вебинара:
— почему data catalog не работает на практике: неактуальные метаданные, отсутствие доверия, перегрузка команды;
— как LLM автоматизирует описание таблиц, дашбордов и бизнес-логики без ручной поддержки;
— как работает RAG для поиска данных, контекста и анализа связей (data lineage);
— архитектура решения и roadmap внедрения без перестройки текущих систем.

Кому будет полезно:
Data-инженерам, CTO, CDO, Head of BI и DWH, Data-аналитикам и Data Scientist

🔗 Регистрация по ссылке
👍 3
Пост от 02.04.2026 09:54
165
1
2
Коллеги, обратите внимание на мероприятие

Большинство компаний сейчас проходят одну и ту же стадию: бюджет на ИИ выделен, пилот запущен, через полгода — тишина. Не провал, не успех, просто "не взлетело". И никто особо не понимает почему.

Команда Loginom собрала вебинар с говорящим названием — "Как потратить бюджет на ИИ и не добиться ничего". Не мотивационный контент про то, как ИИ изменит ваш бизнес, а разбор по существу: почему LLM-проекты умирают не от плохой технологии, а от неправильной архитектуры аналитических процессов и отсутствия данных, которым можно доверять.

Разберут три вещи, которые реально стоит знать перед тем как подписывать бюджет на ИИ-инициативы:
— где LLM работают, а где создают иллюзию работы
— как выстроить архитектуру, при которой инвестиции не превращаются в дорогой эксперимент
— как получать от ИИ воспроизводимые результаты, а не красивые демо

Спикеры — директор Loginom Алексей Арустамов и архитектор аналитических систем Евгений Стучалкин.

Для тех, кто уже внедряет или планирует внедрять ИИ в аналитику — и хочет понять, что реально работает, а что хорошо выглядит в презентациях.

Регистрация: https://loginom.ru/announce/webinar-ai-without-illusions?utm_source=tg-lg&utm_medium=post&utm_campaign=webinar-ai
Изображение
👍 1
Пост от 02.04.2026 07:19
442
1
6
А пока космический корабль Orion продолжает свой полет, давайте посмотрим на фотографии запуска ракеты SLS в рамках миссии Artemis II от фотографов из Космического центра имени Кеннеди📸

Взлет🚀

#nasa #orion #sls #artemis #artemis2
👍 4
1
Пост от 02.04.2026 07:19
433
1
1
Красиво пошла :)
1
Пост от 01.04.2026 08:49
526
8
13
Может ли у ИИ появиться сознание? Лично я сильно сомневаюсь. Причём сомневаюсь не в духе "пока не получается" — а в духе "это фундаментальное ограничение нашего мира". Что-то вроде скорости света. Которую нельзя не только преодолеть, но и достигнуть. Можно асимптотически приближаться, тратя бесконечную энергию — и всё равно не дойти. С сознанием, мне кажется, ровно та же история. Его нельзя "сгенерировать" масштабированием вычислений. Это другая природа.

И вот 93-летний нобелевский лауреат Роджер Пенроуз выступает на Breakthrough Discuss 2025 в Оксфорде с докладом "Why Intelligence Is Not a Computational Process" — и по сути говорит то же самое. Причём говорит это 35 лет подряд. И за 35 лет никто его не опроверг.

У Пенроуза красивый аргумент. Он начинает с теоремы Гёделя: в любой формальной системе есть истинные утверждения, которые система не способна доказать. Но человек способен понять, что они истинны — не через применение правил, а через понимание того, почему правила работают. "Понимание зачем" — не "выполнение как". Калькулятор складывает числа. Человек понимает, что такое сложение. Разница не количественная — она качественная. Никакое наращивание мощности калькулятора не превратит "как" в "зачем".

Дальше он перебирает всю известную физику: где может прятаться не-вычислимость? Ньютон — вычислим. Максвелл — вычислим. ОТО — вычислима. Уравнение Шрёдингера — вычислимо. Остаётся одно место: коллапс волновой функции. То самое, где квантовая механика, по его формулировке, "не совсем правильна".

И вот тут его ключевое различие. Классическую реальность можно установить — спросить у объекта "какова ты?" и получить ответ. Квантовую реальность установить нельзя — можно только подтвердить. Нельзя спросить у электрона "куда ты вращаешься?". Можно предложить направление и получить да или нет. Сознание, по Пенроузу, может работать именно в этом зазоре — в квантовой реальности, которая ведёт себя странно по отношению ко времени, почти ретрокаузально.

Сам Пенроуз подкупающе честен: "У меня нет теории. Я только указываю, что это может быть куда тоньше, чем компьютер." За 35 лет — не теория, а направление поиска. Но направление, которое никто не закрыл.

А индустрия тем временем каждый квартал рапортует: больше параметров, больше compute, больше данных — вот-вот появится AGI. Это как строить ракету побольше в надежде обогнать свет. Лететь можно очень быстро. Делать впечатляющие вещи — тоже. Но если лимит фундаментальный, никакой масштаб не поможет.

https://www.youtube.com/watch?v=iTVN6tFknCg
4
🤔 2
🦄 2
Смотреть все посты