ArXiv заблокировал AI-сгенерированные обзорные статьи после 'наводнения' некачественных заявок

Вкратце

  • ArXiv изменил свою политику после того, как инструменты ИИ упростили массовую генерацию обзорных статей.
  • В категории “Компьютерные науки” теперь будут приниматься только рецензируемые обзорные или позиционные статьи.
  • Исследователи разделились: некоторые предупреждают, что правило вредит авторам на начальном этапе карьеры, в то время как другие называют его необходимым для борьбы с AI-спамом.

Центр искусства, моды и развлечений Decrypt.


Откройте SCENE

<br>

ArXiv, бесплатный репозиторий, основанный в Корнеллском университете, который стал основным центром для тысяч ученых и техников по всему миру для публикации ранних научных работ, больше не будет принимать обзорные статьи или позиционные документы в своей категории “Компьютерные науки”, если они не прошли рецензирование в журнале или на конференции.

Смена политики, объявленная 31 октября, произошла после “потока” опросных документов, созданных ИИ, которые модераторы описывают как “ничего больше, чем аннотированные библиографии.” Теперь репозиторий получает сотни таких заявок ежемесячно, по сравнению с небольшим потоком высококачественных обзоров, исторически написанных ведущими исследователями.

“За последние несколько лет arXiv был переполнен статьями,” объясняется в официальном заявлении на сайте. “Генеративный ИИ/большие языковые модели добавили к этому потоку, сделав написание статей—особенно статей, не представляющих новые исследовательские результаты—быстрым и простым.”

Раздел Компьютерных Наук @arxiv теперь требует предварительного рецензирования для Литературных Обзоров и Позиционных Документов. Подробности в новом блоге

— Томас Г. Диттерих (@tdietterich) 31 октября 2025

<br>

“Это решение было принято из-за значительного увеличения количества статей с опорой на LLM,” добавил Томас Г. Диттерих, модератор arXiv и бывший президент Ассоциации содействия развитию искусственного интеллекта, в X. “У нас нет ресурсов модераторов, чтобы проверять эти заявки и отличать хорошие обзоры от плохих.”

Исследование, опубликованное в журнале Nature Human Behaviour, показало, что почти четверть всех аннотаций по компьютерным наукам демонстрировала доказательства модификации с помощью крупных языковых моделей к сентябрю 2024 года. Отдельное исследование в журнале Science Advances показало, что использование ИИ в научных статьях, опубликованных в 2024 году, возросло с момента запуска ChatGPT. Источник: ArXiv

Волонтерские модераторы ArXiv всегда фильтровали подачи по научной ценности и тематической актуальности, но не проводили рецензирование. Обзорные статьи и позиционные документы никогда официально не принимались в качестве типов содержимого, хотя модераторы делали исключения для работ от известных исследователей или научных обществ. Эта произвольная система сломалась под давлением подач, сгенерированных ИИ.

Платформа теперь обрабатывает объем поданных заявок, который увеличился в несколько раз за последние годы, поскольку генеративный ИИ делает тривиально простым создание поверхностных опросных документов.

Ответ исследовательского сообщества был неоднозначным. Стивен Каспер, исследователь безопасности ИИ, выразил обеспокоенность тем, что политика может disproportionately затронуть исследователей на ранних этапах карьеры и тех, кто работает над вопросами этики и управления.

“Обзорные/позиционные статьи в значительной степени пишутся молодыми людьми, людьми, у которых нет доступа к большому количеству вычислительных ресурсов, и людьми, которые не находятся в учреждениях с большим опытом публикаций,” - написал он в своей критике.

Другие просто раскритиковали позицию ArXiv как неправильную ( и даже глупую ), некоторые даже поддержали использование ИИ для обнаружения статей, созданных ИИ.

Томас, существует значительное сопротивление против арxiv, который становится хранителем, углубляясь в рецензирование, и игнорируя проблему, пока она не станет хуже. Рассматривали ли вы какие-либо конструктивные предложения, сделанные сообществом AI/ML?

  1. Иметь немодерируемый раздел ArXiv ( из…

— Джастин Энджел (@JustinAngel) 2 ноября 2025 года

<br>

Одна из проблем заключается в том, что инструменты обнаружения ИИ оказались ненадежными, с высокой частотой ложноположительных срабатываний, которые могут несправедливо помечать законную работу. С другой стороны, недавнее исследование показало, что исследователи не смогли идентифицировать треть медицинских аннотаций, сгенерированных ChatGPT, как написанные машиной. Американская ассоциация исследований рака сообщила, что менее 25% авторов раскрыли использование ИИ, несмотря на обязательные политики раскрытия информации.

Новое требование означает, что авторам необходимо представить документацию о успешном рецензировании, включая ссылки на журналы и DOI. Обзоры на семинарах не соответствуют стандарту. ArXiv подчеркнул, что это изменение в настоящее время затрагивает только категорию Компьютерные науки, хотя другие разделы могут принять подобные политики, если столкнутся с сопоставимыми всплесками в подачах на основе ИИ.

Этот шаг отражает более широкую переоценку в академическом издательстве. Крупные конференции, такие как CVPR 2025, внедрили политики по отклонению статей от рецензентов, отмеченных за безответственное поведение. Издатели сталкиваются с работами, содержащими явные признаки ИИ, такими как одна, которая начиналась со слов: “Конечно, вот возможное введение для вашей темы.”

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить