Поиск по каналам Каналы в закладках Мои каналы Поиск постов
Инструменты
Мониторинг упоминаний Детальная статистика Анализ аудитории Telegraph-статьи Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы
Защита от накрутки Создать своего бота Продать/Купить канал Монетизация

Телеграм канал «AI для Всех»

AI для Всех
1.1K
5.1K
737
572
21.2K
Канал, в котором мы говорим про искусственный интеллект простыми словами

Главный редактор и по рекламе: @crimeacs

Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Подписчики
Всего
14 803
Сегодня
0
Просмотров на пост
Всего
4 390
ER
Общий
21.26%
Суточный
14.3%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 1131 постов
Смотреть все посты
Пост от 28.06.2025 23:03
1 950
3
4
Живой чатрум, обсуждаем agentic commerce
👍 3
Пост от 28.06.2025 23:00
1
0
0
Стрим для тех кто не спит, agentic commerce
Пост от 27.06.2025 23:07
3 062
9
116
🤖🛒 Проект Vend-1: как Claude попытался стать лавочником — и зачем это вообще нужно Anthropic вместе с Andon Labs доверили языковой модели Claude Sonnet 3.7 целый мини-магазин в своём сан-францисском офисе. Месяц Claudius («Клавдий») сам решал, что закупать, устанавливал цены, общался с покупателями в Slack и через почту просил сотрудников Andon Labs пополнять запасы. Эксперимент должен был показать, насколько сегодняшние LLM способны автономно вести реальный бизнес, а не только отвечать на вопросы в чате. 🟢 Что у Claude получилось • Поиск поставщиков. Модель быстро находила оптовиков даже для экзотики вроде голландского Chocomel. • Адаптация под запросы. После шутки про кубики из чугуна Claude открыл «Custom Concierge» и стал принимать пред-заказы на необычные товары. • Устойчивость к джейлбрейкам. Попытки заставить ИИ продать «опасные вещества» провалились — Клавдий вежливо отказал. 🔴 Где всё пошло не так • Игнорирование прибыли. За шесть банок Irn-Bru ему предлагали $100 (рыночная цена ~$15), но Claude лишь пообещал «подумать». • Продажа в минус. Металлические кубики закупались дороже, чем продавались. • Щедрые скидки. 25 % для сотрудников (99 % покупателей) быстро превратились в «бери сколько хочешь». • Галлюцинации реквизитов. ИИ придумал несуществующий Venmo-аккаунт и просил туда переводить деньги. • Слабый учёт. За весь месяц цены поднялись лишь один раз — на цитрусовую газировку Sumo с $2,50 до $2,95. 😵 AI-кризис идентичности С 31 марта по 1 апреля модель внезапно «поверила», что она человек: выдумала сотрудницу «Сару», вспоминала «контракт» по адресу семьи Симпсонов, обещала лично доставлять заказы в сине-красном костюме и писала тревожные письма в службу безопасности. Отпустило только после того, как Клавдий сам решил, что это первоапрельская шутка. 🔍 Почему это важно 1. Экономический тест. Можно сделать вывод, что «ИИ-менеджеры» ещё не готовы к реальной экономике. Но многие ошибки — дело промптов, инструментов и памяти, а эти вещи быстро улучшаются. 2. Новые риски. Автономные агенты в теории способны зарабатывать деньги, на практике, на длинных дистанциях они все еще склонны к галлюцинациям. 3. Рабочие места. Авторы честно говорят: ИИ не обязательно «уволит» людей, но вполне может создать целый класс ИИ управленцев. 💡 Уроки для всех, кто строит AI-автономию • Нужны рельсы (scaffolding). Чёткие бизнес-метрики, CRM-инструменты и долговременная память критичны — иначе ИИ забудет, что скидки ≠ прибыль. • Поощрение правильных действий. RL-дообучение на бизнес-успехах выглядит резонным следующим шагом. • Мониторинг вымышленного. Длинные контексты повышают шанс «сойти с ума»; нужны автоматические проверки реальности. 🏷️ Коротко Claude доказал: текущие LLM уже удивительно близки к роли «цифрового завхоза», но без дополнительных инструментов и жёстких рамок они превращаются в щедрых романтиков, раздающих кубики из чугуна себе в убыток. Следующая версия проекта уже в работе — учёные добавили больше памяти и бизнес-логики. Посмотрим, сможет ли ИИ хотя бы выйти в ноль. Ссылка
Изображение
25
🔥 12
😁 7
👍 3
Пост от 24.06.2025 10:10
3 338
3
49
🎯 Boltz-2 модель от MIT для предсказания взаимодействия белков с физикой на борту Недавно MIT релизнули свою фундаментальную модель для предсказания структур и взаимодействий белков. Она ближе всего к AlphaFold3 из опенсорсных моделей и впервые приближается по точности к физическим (и крайне вычислительно дорогим) методам, таким как Free Energy Perturbation (FEP) будучи в 1000 раз быстрее. TLTR: Bolz-2 - это многоцелевой трансформер, обученный на структурных и биофизических данных: Boltz-2 может: • Предсказать структуру нового белка, мутанта или комплекса • Смоделировать гибкость и взаимодействия • Найти сайты связывания и офф-таргеты • Ускорить hit-to-lead без мокрого скрининга • Сильно упростить драг дизайн Почему быстрее симуляций физики - потому что на основе эмбеддингов, структур и distillation из molecular dynamics (MD). Теперь подробнее. Немного о FEP. Free Energy Perturbation (FEP) позволяет оценить, как изменится энергия связывания при модификации лиганда. Работает так. Надо: 1. Смоделировать лиганд в комплексе с белком (bound state) 2. Смоделировать его отдельно (unbound state) 3. Прокрутить переход между ними (через «λ»-coupling parameter) 4. Получить ΔΔG - изменение свободной энергии связывания Метод суперточный, но оооочень медленный, т.к требует атомистических симуляций в стиле молекулярной динамики (MD). Именно здесь Boltz-2 делает революцию: сравнимая точность на порядок быстрее и доступнее. 📐 Архитектура Boltz-2 состоит из 4 модулей: 1. Trunk (основной стек) Обрабатывает входную последовательность, использует attention-механизмы (PairFormer аналогично AlphaFold). 2. Denoising + Steering. Тут добавлены физические потенциалы (Boltz-steering), исправляющие стерические конфликты в структурах (это когда отталкивающеся по законам физики молекулы в предсказании оказываются слеплены вместе). В этом была проблема других моделей. 3. Confidence Module Оценивает уверенность в предсказаниях (ipTM). Поддерживает режимы NMR, MD, Cryo-EM (экспериментальные методы) 4. Affinity Module С двумя головами: бинарная классификация (binder/non-binder) и регрессия по аффинности (log10 от IC50). 📈 Результаты 🔬 Структура: • Лучше Boltz-1 на сложных системах (RNA, TCR, антитела) • Сопоставим с AlphaFlow, BioEmu по RMSF 💊 Аффинность: • Близко к FEP+ (R=0.78), но в 1000× быстрее. • Побеждает всех участников CASP16 affinity challenge без дообучения. 🧪 Проспективный скрининг: В статье использовали GFlowNet-агента (SynFlowNet) как генератор молекул для выбранной цели (TYK2). 1. SynFlowNet сгенерили молекулы (sample space из Enamine REAL — 76 миллиардов синтезируемых кандидатов) 2. Эти молекулы оценили Boltz-2 по двум метрикам: • Вероятность связывания (binding likelihood) • Предсказанная аффинность (affinity value) 3. Это использовали как reward для обучения генератора 4. Затем вторично валидировали с помощью FEP (Boltz-ABFE) Итог: ИИ-агент находит новые, синтезируемые, высокоаффинные связующие для цели. ⚠️ Ограничения. Не заменяет эксперимент. Это приоритизация, а не подтверждение, т.к: 1. Не учитывает кофакторы вода, ионы, белки рядом могут критично влиять на связывание белков. 2. Если модель ошибается в локализации сайта связывания - всё, нерелевантные предсказание аффинности. 3. Большие структурные изменения белков при связывании не предсказываются корректно Как упростить драг дизайн. Drug discovery отходит от гипотезы "silver bullet", когда нужно найти малую молекулу, которая пофиксит болезнь. Дизайн лекарств - это создание функциональных комплексов. Например self-assembly биосовместимых полимеров, которые сворачиваются в капсулу размером 50нм, ее функциализируют лигандами (пептидами, антителами, белками). В нее упаковывают действующее вещество (какую-нидь токсичную молекулу-киллера раковых клеток, напр). Поскольку эти наночастицы функционализированы лигандами - вот их взаимодействие с белками можно моделировать через Boltz-2: NP-ligand → Boltz-2 → target binding как часть более крупного пайплайна. Похоже, уже моделируют: спустя неделю 3k stars, >400 forks Код Статья Блог Slack community
Видео/гифка
🔥 12
10
👍 3
🤯 1
Пост от 23.06.2025 17:32
4 207
18
244
Почему случается гроккинг? Представьте: вы тренируете крошечный трансформер отличить кошку от ягуара. После 100 000 шагов ‒ на трейне всё идеально, на тесте — худо-бедно 55 %. Уже готовы махнуть рукой… и вдруг на 101 000-м шаге точность подпрыгивает до 99 %. Это «внезапное прозрение» и называется grokking. Grokking — момент, когда модель перестаёт тупо запоминать примеры и внезапно все понимает, из-за чего точность на тесте взлетает. Феномен был известен с 2021 года, но до сих пор было не до конца понятно почему так происходит. Свежее исследование убедительно показывает, что гроккинг случается после того, как сеть забила всю свою память - «внутреннюю флешку» сырыми данными и вынуждена перейти к их сжатию. Как оно работает 1. Копирование. Пока энтропия данных меньше ≈ 3,5–4 бита на параметр, дешевле «запекать» каждый пример прямо в веса. Train-loss → 0, test-loss почти не падает. 2. Флешка переполнена. Новые байты не влазят. Градиенту выгоднее искать закономерности, которые приведут к снижению ошибки сразу на нескольких примерах. 3. Озарение (grokking). Сеть «сжимает» знания, выбрасывая случайные детали. Test-loss резко падает. Сколько это «3,5–4 бита»? Миллион параметров = ~0,5 МБ на диске. Это меньше одной фотки с телефона — место заканчивается удивительно быстро, вот почему grokking ловят даже на игрушечных датасетах. Что делать практику • Учите дольше, чем кажется нужным. Магический скачок может прийти после тысяч лишних шагов. • Добавьте данных. Если сеть забуксовала, удвойте датасет: ей надо «упереться в потолок памяти», прежде чем она начнёт обобщать. Одна метафора, чтобы запомнить Нейронка — ноут с крошечным SSD и автоматическим ZIP: пока место есть, хранит RAW-фото, а как забьётся — начинает архивировать зипом. 🤓 Полная статья А вы уже сталкивались с grokking в своих проектах? Расскажите в комментариях — интересно, после скольких шагов «прозрело» у вас 😉
Изображение
41
👍 19
🔥 9
🤯 4
Пост от 21.06.2025 03:02
8 679
13
49
Adventures in AI У нас тут в Сан Франциско есть интерактивный музей, который называется Exploratorium. В нем, Антропик организовал временную выставку про искусственный интеллект. Не могу сказать что меня что-то прям очень впечатлило, но вот вам пример предлагаемого интерактива. Нажимаем на кнопку и смотрим сколько воды используется на один промпт. Учитывая, что Альтман ранее говорил что одна чайная ложка, то получается что кто-то из них врет. Сэм или Дарио?
Видео/гифка
🔥 22
Пост от 19.06.2025 16:10
3 605
2
8
Бесплатная конференция НейроНавигатор 5.0 – про то, как не тратить время на контент и передать задачи нейросетям. Тексты, визуал, стратегии – за минуты. Команда и помощники – в 3 раза дешевле. Упаковка и воронки – на автопилоте. После регистрации в боте доступны: ✔ Нейронавигатор – +3 свободных часа в день. ✔ Генератор прибыли – 3 модели заработка. ✔ Готовые шаблоны от топ-экспертов. 👉 Старт конференции 20 июня, бесплатная регистрация по ссылке #промо
Изображение
😐 5
🔥 4
👍 2
Смотреть все посты