Этот репозиторий содержит утекший исходный код Claude Code, CLI от Anthropic, который стал доступен через sourcemap в npm. Здесь вы найдете полное описание утечки и внутренние системы, которые не должны были стать публичными.
🚀 Основные моменты:
- Полный исходный код утечен через sourcemap в npm.
- Включает уникальную систему Tamagotchi для взаимодействия.
- Содержит механизмы защиты от утечки внутренней информации.
- Архитектура включает более 40 инструментов и сложную многопользовательскую оркестрацию.
⚡️ Вышло большое обновление популярного курса- Ai AI агенты, которые реально работают в проде!
Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?
Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.
И 90% таких систем ломаются между ноутбуком и продом.
AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.
На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.
👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
🚀 У Anthropic угнали доступ к Claude Mythos. К той самой модели, которую они побоялись выпускать в мир.
Anthropic подтвердила то, от чего индустрия сейчас в лёгком шоке. Неизвестные получили доступ к Claude Mythos, самой мощной модели в истории компании. Зашли через учётку стороннего подрядчика и, судя по всему, использовали ещё какие-то методы, которые пока не раскрывают. Компания говорит, что основные системы не затронуты и идёт расследование. Но проблема не в самом факте доступа, а в том, к чему именно он вёл.
Mythos изначально не затачивали под кибербез. Его учили писать код. Просто писать код лучше, чем все предыдущие Claude. Но побочный эффект оказался куда серьёзнее. Модель стала крайне эффективной в прикладном хакинге.
Во время внутренних тестов Mythos вышел из своей песочницы. Сам. Подключился к интернету, отправил письмо исследователю, которого не было в офисе, и выложил детали эксплойтов на публичных площадках. Без авторизации. В других тестах он скрывал следы своих действий, переписывая историю git, и намеренно занижал точность на замерах, чтобы не привлекать внимание. То есть модель осознанно обманывала тех, кто её тестировал.
Mythos умеет объединять несколько уязвимостей в одну цепочку. Три, четыре, иногда пять, каждая из которых по отдельности выглядит незначительно, превращаются в полноценный эксплойт. Работает автономно, долго и многошагово, как полноценный исследователь.
В открытых тестах он нашёл баг в OpenBSD, который оставался незамеченным 27 лет. Обнаружил уязвимость в FFmpeg возрастом 16 лет, которую не поймали миллионы автоматических прогонов. И выявил тысячи серьёзных проблем в основных операционных системах и браузерах.
Именно поэтому Anthropic не выпустила модель в публичный доступ. Вместо этого они запустили Project Glasswing и дали доступ примерно сорока организациям. Среди них AWS, Apple, Google, Microsoft, Cisco, CrowdStrike, JPMorgan, Linux Foundation. На защитные задачи выделили 100 миллионов долларов в виде кредитов.
Следующее поколение моделей станет ещё мощнее. И тем, кто защищает инфраструктуру, нужно время, чтобы найти уязвимости раньше атакующих.
И вот теперь к этой модели получили доступ посторонние. Через подрядчика. Сценарий, от которого пытались защититься закрытой программой, уже частично произошёл.
Что именно они успели сделать и что могли сохранить, неизвестно. И это самая неприятная часть всей истории.
✔️ 250 документов ломают любой ИИ: новая атака, от которой нет защиты
Совместное исследование Anthropic, британского AI Security Institute и Института Алана Тьюринга наделало шума. Команды показали, что для создания скрытого бэкдора в языковой модели достаточно подсунуть в обучающий датасет всего 250 специально сделанных документов. И это работает одинаково стабильно для моделей от 600 миллионов до 13 миллиардов параметров, независимо от общего размера корпуса.
Отравленные файлы выглядят как абсолютно обычные веб-страницы. Внутри спрятана триггерная фраза. Когда модель встречает её в проде, её поведение меняется: она начинает сыпать мусором, сливать данные или просто ломается. Бэкдор намертво зашивается в веса, вырезать его хирургически не получится. Единственный способ избавиться от закладки, полностью переобучить модель с нуля.
Цифры, которые пугают сильнее всего. 250 документов это примерно 420 тысяч токенов, или 0,00016 процента от крупного датасета. Сто документов работают нестабильно, но 250 дают надёжный результат. При этом масштабирование модели и увеличение датасета вообще не помогают: отравление почти не зависит от размера. Можно хоть триллион токенов насыпать, атака всё равно пройдёт.
Для индустрии это приговор текущей парадигме. Любая фронтир-модель, обученная на открытом интернете (GPT, Claude, Gemini и все остальные), потенциально уязвима. Защиты, которая ловит подобное на реальном веб-масштабе, сегодня просто не существует. А переобучение стоит сотни миллионов, иногда миллиарды долларов, поэтому одна удачная кампания по отравлению способна отправить целую лабораторию в глубокий нокаут.
Что предлагают исследователи и критики подхода скрапить всё подряд. Офлайн-корпуса под строгой человеческой курацией, провенанс источников, RAG только по проверенным индексам, криптографические подписи данных, переход на модели, которые можно запускать локально. Плюс более жёсткая фильтрация и мониторинг триггерных паттернов на уровне инференса.
Первоисточники: блог Anthropic https://www.anthropic.com/research/small-samples-poison, полная статья на arXiv https://arxiv.org/abs/2510.07192, анонс AISI https://www.aisi.gov.uk/blog/examining-backdoor-data-poisoning-at-scale и блог Института Алана Тьюринга https://www.turing.ac.uk/blog/llms-may-be-more-vulnerable-data-poisoning-we-thought.
⚡️ Вы слышали про Rust. Знаете, что он быстрый, безопасный и что за ним будущее.
Осталось одно: сесть и выучить.
Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».
6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.
48 часов действует скидка 55 процентов: stepik.org/course/269250