Каталог каналов Новое Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Мониторинг Новое Детальная статистика Анализ аудитории Telegraph-статьи Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы
Защита от накрутки Создать своего бота Продать/Купить канал Монетизация

Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «Анализ данных (Data analysis)»

Анализ данных (Data analysis)
3.3K
2.5K
1.9K
458
46.7K
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Подписчики
Всего
46 901
Сегодня
0
Просмотров на пост
Всего
4 439
ER
Общий
9.03%
Суточный
7%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 3302 постов
Смотреть все посты
Пост от 14.10.2025 20:30
2 676
0
48
⚡ Goldman Sachs: ИИ съест 20% всей мировой энергии к 2030 году По прогнозу Goldman Sachs, к 2030 году спрос на электроэнергию со стороны дата-центров вырастет на 25%, а доля ИИ в общем энергопотреблении достигнет 20%. 🔥 Когда-то огонь изменил жизнь человека - с ним началась кулинария, эволюция мозга и социальное развитие. ⚙️ Затем электричество стало топливом индустриальной эпохи, двигая экономику и прогресс. 🤖 Теперь настала очередь искусственного интеллекта: один запрос к ChatGPT потребляет около 2,9 ватта, почти в 10 раз больше, чем обычный поиск Google. Если ИИ реализует хотя бы часть своего потенциала, то энергия станет главным ограничителем его роста. И, как отмечает Goldman, это создаёт новую инвестиционную волну — не только в чипы и модели, но и в энергетику. 📊 По оценке McKinsey, к 2030 году потребление электроэнергии дата-центрами в США вырастет с 3–4% до 11–12%, увеличившись с 25 до 80 ГВт.
Изображение
5
🔥 3
🌚 3
👍 1
Пост от 14.10.2025 18:57
2 554
0
45
🚀 Новый курс на Stepik: AI Agents PRO Если вы работаете с ML/DS и хотите перейти от моделей → к готовым продуктам на базе LLM, без понимания агентов уже никуда. 🔹 Что внутри: Архитектура агентов (FSM, DAG, Supervisor–Worker, Critic–Executor). Интеграции: API, БД, браузеры, CRM. Retrieval-Augmented Generation (Qdrant, Weaviate, FAISS). Надёжность: ретраи, guardrails, работа с PII. LLMOps: метрики качества, A/B-тесты, дашборды. Продакшн-деплой: Docker, очереди сообщений, CI/CD. Итоговый проект: собственный агент под реальный бизнес-кейс. 🎯 По итогу вы сможете строить и выкатывать production-ready AI-агентов, а не просто писать демки в ноутбуках. 🔥 Спец-условия: только по промо AGENTS30 — -30% на старт (действует 48ч). 👉 Пройти курс со скидкой
Изображение
2
👍 2
Пост от 14.10.2025 12:25
3 607
2
145
🍏Ничего сверхъестественного - просто Gemini 3 Pro за один (!) промпт разворачивает полноценную симуляцию macOS или Windows прямо в браузере. Всего 900 строк кода - и у вас уже есть рабочий интерфейс с анимациями, меню, браузером и даже терминалом. Модель справляется с этим за 172 секунды. Код и демо уже доступны - а инсайдеры шепчут, что официальный релиз выйдет на этой неделе. Первые тестеры называют Gemini 3 Pro «лучшим ИИ для кодинга на сегодня». https://codepen.io/ChetasLua/pen/EaPvqVo
Видео/гифка
👍 26
🔥 13
7
Пост от 14.10.2025 11:35
3 240
0
49
🎥 Lynx: Высококачественная генерация персонализированного видео Lynx — это модель генерации видео, которая создает персонализированные ролики на основе одного изображения. Использует Diffusion Transformer с адаптерами для сохранения идентичности и улучшения деталей. 🚀 Основные моменты: - Генерация видео с высоким качеством из одного изображения. - Легковесные модели для эффективного создания видео. - Поддержка различных адаптеров для улучшения качества. 📌 GitHub: https://github.com/bytedance/lynx #python
Изображение
5
🔥 4
👍 2
Пост от 13.10.2025 18:47
3 266
0
24
⚡️ Samsung идёт на риск, чтобы вернуть лидерство в гонке AI-памяти - ставка на сверхбыструю HBM4 Samsung решила изменить правила игры на рынке чипов и убедить Nvidia повысить официальную скорость HBM4, даже несмотря на то, что конкуренты: SK Hynix и Micron - раньше показали первые образцы. Обычно разработчики HBM (High Bandwidth Memory) делают акцент на контроле температуры, ведь многослойная DRAM быстро нагревается. Но теперь Nvidia потребовала большего - выше частоты, выше скорость. Для Hynix и Micron это стало неожиданностью: их решения оптимизированы под стабильность, а не под разгон. А вот Samsung оказалась готова. Её HBM4-чипы уже достигли более высоких частот на тестах - благодаря технологическому преимуществу: - DRAM-чипы производятся по 1c-процессу (6-е поколение 10 нм), - базовый логический кристалл - на 4-нм техпроцессе Samsung Foundry. Для сравнения: - SK Hynix использует 12-нм процесс TSMC, - Micron - старый DRAM-процесс. Более продвинутая литография даёт Samsung лучший контроль над энергопотреблением и сигналами. Компания уже ускоряет производство и планирует вывести HBM4 на рынок в 2026 году, когда спрос на память для AI-систем резко превысит предложение. Такой шаг может вернуть Samsung утраченные позиции после неудачи с HBM3E. Ключевой момент - тесты Nvidia Rubin. Если HBM4 покажет проблемы с нагревом или надёжностью при интеграции, вся стратегия может рухнуть. Но если всё пройдёт успешно, Samsung сможет опередить Hynix и Micron, снова захватив лидерство в памяти для AI-ускорителей. Итог: Samsung делает ставку на скорость, технологии и масштаб. Это рискованный, но стратегический шаг, который может определить баланс сил на рынке AI-чипов в ближайшие годы. 🟠Подробности #Samsung #Nvidia #AI
Изображение
7
👍 4
🔥 3
Пост от 13.10.2025 18:15
1 900
0
59
⚡️ Mamba-3 тихо и без объявления вышла на ICLR - и это может стать началом конца эпохи Transformers. Новая архитектура Mamba-3 делает модели быстрее, стабильнее и эффективнее при работе с длинными контекстами. Главная идея - не в слоях внимания, а в state-space моделях, где модель хранит и обновляет внутреннее состояние во времени. 📘 Краткие эускурс: - Mamba-1 ввела непрерывную динамику и выборочное обновление памяти - помнила эффективно без высокой цены attention. - Mamba-2 показала, что обновления состояния и attention - это две стороны одной математики, что ускорило вычисления на GPU. - Mamba-3 довела концепцию до зрелости: теперь внутренняя память развивается плавнее и устойчивее за счёт перехода от простого шага Эйлера к трапецеидальному интегрированию. Вместо простого шага Эйлера, как в Mamba-2, Mamba-3 аппроксимирует интеграл обновления состояния не только по правому концу интервала, но усреднением между началом и концом, с коэффициентом λ, зависящим от данных. Это даёт более точное приближение (второго порядка) и делает динамику состояния более выразительной. 🧠 Что изменилось под капотом: - Память стала «ритмичной»: теперь модель может хранить повторяющиеся и периодические паттерны (например, структуры языка или музыки). - Новый multi-input-multi-output дизайн позволяет обрабатывать несколько потоков параллельно — идеально для современных GPU. ⚙️ Что это даёт на практике: - Эффективная работа с длинными последовательностями: документы, геномы, временные ряды. - Линейное время выполнения и стабильная задержка делают её идеальной для реального времени: чат-ботов, перевода, речи. - Энергоэффективность и масштабируемость открывают путь к on-device AI, где большие модели работают локально, без облака. Mamba-3 - это не просто ускоренная альтернатива Transformers. Это новая архитектура, которая объединяет глубокое понимание контекста, скорость и устойчивость, от серверных систем до умных устройств. 🟢 Подробности: https://openreview.net/pdf?id=HwCvaJOiCj @ai_machinelearning_big_data #ssm #mamba3 #llm,#architecture #ai
Изображение
Изображение
Изображение
Изображение
15
👍 7
Пост от 13.10.2025 16:04
2 904
0
38
NVFP4 - новый формат, который обучает 12B Mamba Transformer в 4 бита без потери точности Исследователи представили NVFP4 - способ хранить числа в 4 битах вместо 8 или 16, почти без потери качества обучения. Главная идея - умное блочное квантование: - Все значения делятся на блоки по 16 чисел. - Каждый блок имеет свой локальный scale (8 бит). - Весь тензор получает глобальный scale (32 бита). Так сохраняется высокая точность локальных значений и не теряются экстремально большие или маленькие числа. 📊 Результаты: - Обучение 12B Mamba Transformer на 10T токенов в 4 битах показало точность, сопоставимую с FP8. - Вычисления стали в 2–3 раза быстрее, а использование памяти снизилось на 50%. - Потеря точности не превышает 1–1.5% по метрикам. - MMLU Pro: 62.58% (NVFP4) против 62.62% (FP8). - MBPP+: 55.91% против 59.11%. - Градиенты используют стохастическое округление, чтобы избежать накопления ошибок. - По сравнению с MXFP4, NVFP4 требует на 36% меньше данных для того же уровня потерь. На поздних этапах обучения переход на BF16 почти устраняет разрыв в качестве. NVFP4 уже поддерживается в Transformer Engine и на Blackwell GPU, включая все нужные режимы округления. 📄 Исследование: https://arxiv.org/abs/2509.25149
Изображение
11
👍 4
🔥 3
Смотреть все посты