Какой национальности будет национальный ИИ в РФ? Вокруг законопроекта Минцифры об искусственном интеллекте уже пошла привычная для нашей системы путаница: одни говорят, что никакого запрета зарубежных нейросетей нет, другие - что завтра в России отключат ChatGPT. Формально правы первые. В опубликованной версии проекта действительно нет нормы о тотальном запрете для всех пользователей. Но политически правы скорее вторые. Потому что смысл подобных инициатив надо читать не только по буквам, но и по траектории.
На бумаге всё выглядит норм. Государство хочет защитить граждан от дискриминационных алгоритмов, скрытых манипуляций, неправомерного использования данных, опасного контента. Это звучит современно, ответственно и даже в чем-то прогрессивно. Проблема в том, что в российской административной практике почти любая «защита» очень быстро превращается в ограничение, а потом и в вытеснение всего нежелательного. Сначала вам говорят, что никто ничего не запрещает. Потом выясняется, что работать в госсистемах можно только с доверенными решениями. Потом оказывается, что доверенными признаются только те, кто хранит данные в России, проходит специальные проверки и вообще встроен в контур, удобный государству. А дальше рынок сам начинает схлопываться, потому что всё живое выдавливается из ключевых сфер административным путем.
Именно так и надо понимать нынешнюю инициативу. Не как моментальный запрет ChatGPT для каждого пользователя, а как создание правовой рамки, в которой иностранный ИИ заранее объявляется подозрительным, а правильный ИИ - управляемым, локализованным и встроенным в государственную вертикаль. Возможно, оставят еще дружественный ИИ китайских друзей, но это не точно (да и будут ли они еще друзьями к 2027 году?).
Формально это еще не занавес. Но карниз под него уже прикручивают. При этом самое слабое место этой логики даже не в цензуре как таковой, а в глубоком непонимании того, как вообще развивается современная технологическая среда. Сильные нейросети сегодня - это не игрушка для айтишников и не модный каприз. Это уже повседневный инструмент работы. Через них пишут код, собирают аналитику, переводят тексты, расшифровывают интервью, делают презентации, автоматизируют рутину, экономят время и деньги. Это не роскошь. Это новая грамотность. Запретить или административно выдавить такие инструменты - значит не защитить граждан, а сознательно ухудшить их конкурентоспособность.
Особенно комично здесь звучит аргумент про безопасность данных. Да, любой цифровой сервис несет риски. Да, не надо загружать в нейросеть паспорт, коммерческую тайну или чувствительные документы. Но проблема не в том, что люди пользуются сильными инструментами, а в том, что государство в очередной раз хочет решить вопрос не через цифровую грамотность, прозрачные правила и ответственность, а через старую бюрократическую схему: запретить, ограничить, сертифицировать, загнать в реестр. Это логика ведомства, которое под безопасностью понимает не развитие с правилами, а отказ от развития как такового.
В результате мы рискуем получить классическую российскую модель технологического суверенитета: глобальные решения для мира, а для себя - имитацию. Не лучший продукт, а правильный. Не конкуренцию, а административную расчистку поля. Не рост производительности, а разговор о важном. И это, пожалуй, главное. Потому что страна беднеет не только тогда, когда ей что-то запрещают извне. Она беднеет и тогда, когда сама запрещает себе инструменты будущего.
Так что спор сегодня не о нейросетях. Спор о том, что у нас вообще считается безопасностью. Возможность развиваться, оставаясь сильными и открытыми, или право запереть дверь, чтобы внутрь не зашел никто лучше.