50+ научных статей оказались халтурой с галлюцинациями ИИ-моделей
Занятная новость на стыке моих интересов. Погнали за шторку, будем разбираться.
Есть такая конференция NeurIPS, где инженеры, разрабы, исследователи и обсуждают исследования в области ИИ, машинного обучения, статистики, оптимизации и смежных дисциплин. Именно её материалы стали предметом громкого «иишного» скандала.
Ребята из GPTZero проанализировали 4841 научную работу с NeurIPS 2025 и обнаружили 100+ выдуманных цитирований в 53 опубликованных статьях😱
В статьях встречаются ссылки на несуществующие препринты и шаблонные имена в духе Firstname Lastname, John Smith и Jane Doe.
При этом проблема не только в полностью придуманных источниках, но и в том, как именно ИИ «портит» библиографию. Алгоритм берёт имена реальных авторов и приписывает им статьи, которые они никогда не писали. Либо соединяет реальные заголовки с вымышленными авторами.
Часто встречаются ошибки в месте публикации, отследить которые сложнее всего. Это как будто бы не так страшно, ведь статья по крайней мере существует) Однако ссылка в рамках научной работы будет ошибочной.
Вишенка на этом ИИ-шном торте — абсолютно все эти статьи с инфомусором прошли рецензирование. Все они успешно презентованы и опубликованы 🤯 На минуточку аудитория конференции — 20 тысяч человек.
Когда-то я работала в редакции научно-технических журналов, и мне было бы интересно поработать там сейчас, в эпоху GPT. Хотелось бы разобраться, насколько всё печально, и куда такими темпами зайдёт наука.