Недавно менеджер из банка предложила мне купить акции некой выходящей на IPO компании, которая разрабатывает искусственный интеллект. Я поблагодарила и отказалась.
«Как же так?», — сказала менеджер банка, — «разве вы не знаете, что генеративный ИИ захватывает всё больше места в жизни? У нас многие клиенты сейчас покупают. К 2030 году общий объем использования составит Х, а капитализация вырастет до У». Дальше были названы какие-то цифры, которые приводить здесь нет смысла.
Занятно, что за неделю до этого мы с коллегами обсуждали искусственный интеллект и пришли к консолидированному выводу, что это пузырь, который скоро должен лопнуть. Признаки пузыря напоминают те, которые были накануне того, как лопнул интернет-пузырь в 2000 году. То есть модель бизнеса не показывает прибыльность. Пользователей ИИ становится всё больше, но на их обслуживание компаниям-разработчикам приходится тратить всё больше серверов, видеокарт и электричества. И кривые расходов и доходов пока только расходятся.
Недавно я прочла, что для обеспечения нормального функционирования генеративного ИИ корпорация Open AI (создатель ChatGPT) планирует потратить $600 млрд к 2030 году при прогнозе выручки в $280 млрд (то есть в 2 раза меньше). При том, что за прошлый год компания заработала $11,9 млрд при расходах в $28 млрд. С другими моделями не лучше — все они пока убыточны.
Почему так? Одной из основных причин является прожорливость ИИ-моделей, как с точки зрения серверов, так и с точки зрения потребления электричества. Достаточно сказать, что стандартный ИИ-сервер DGX H100 от NVIDIA потребляет 10,2 кВт. То есть стойка из 10 таких серверов потребляет 100 кВт. Для сравнения — обычная стойка серверов «ест» от 3 до 10 кВт электроэнергии.
Согласно исследованию Hugging Face и Carnegie Mellon University, один запрос к текстовой модели потребляет в среднем около 0,00047 кВт·ч. Выглядит несерьезно, пока не умножишь на число пользователей: ChatGPT сейчас обрабатывает примерно 800 млн запросов в неделю (согласно их заявлениям), а это — 376 мегаватт-час каждые семь дней. С учетом текущих скачущих цен на энергоносители — это серьёзные затраты.
Китайская Deep Seek потребляет энергии на 50-70% меньше, но есть подозрение, что это происходит за счет того, что хитрые китайцы используют у себя результаты ChatGPT и других.
Что касается собственно серверов, которые надо купить, то в конце прошлого года CEO IBM Арвинд Кришна заявил, что один ГВт дата-центров, способных работать с ИИ, при постройке будет стоить $80 млрд. При этом один гигаватт такого дата-центра потребляет энергии примерно на $1,3 млрд в год, а их реальный срок службы — около трёх лет. То есть цена запуска + содержание составляет $28 млрд в год. Примерно столько, сколько убытков понесла OpenAI.
Но при этом расширение масштабов ИИ увеличивает себестоимость. А это означает, что улучшение моделей удаляет разработчиков от прибыльности, потому что их расходы растут быстрее доходов.
И на этом фоне в Штатах уже начались осторожные — пока — публикации об ограниченности генеративных моделей и о том, что их качество перестало расти. Одновременно в конце прошлого года разработчики ИИ начали заявлять, что будут включать рекламу в свои модели. Понятно — как-то окупать это хозяйство хочется. Но что в этом случае будет с пользователями, которым нужно качество?
Короче говоря, ИИ-компании сейчас пытаются решить проблемы с электричеством и себестоимостью, одновременно вынужденно снижая качество и пытаясь найти новые модели сбыта. Интересно посмотреть, как они решат эту задачку, но пока я бы не стала инвестировать в компании, которые разрабатывают или используют ИИ*.
* Данный текст не является финансовой рекомендацией, а лишь отражает частное мнение автора.