ArXiv a changé sa politique après que les outils d'IA aient facilité la génération en masse de papiers d'enquête.
Seules les revues ou les articles de position évalués par des pairs seront désormais acceptés dans la catégorie Informatique.
Les chercheurs sont divisés, certains avertissant que la règle nuit aux auteurs en début de carrière, tandis que d'autres la jugent nécessaire pour stopper le spam généré par l'IA.
Le Hub Art, Mode et Divertissement de Decrypt.
Découvrez SCENE
<br>
ArXiv, un dépôt gratuit fondé à l'Université Cornell qui est devenu le centre de référence pour des milliers de scientifiques et de technologues à travers le monde pour publier des articles de recherche précoce, n'acceptera plus d'articles de revue ou de documents de position dans sa catégorie Informatique, à moins qu'ils n'aient déjà été soumis à une évaluation par les pairs dans un journal ou une conférence.
Le changement de politique, annoncé le 31 octobre, intervient après un “flux” de documents d'enquête générés par l'IA que les modérateurs décrivent comme “peu plus que des bibliographies annotées.” Le dépôt reçoit maintenant des centaines de ces soumissions chaque mois, contre un petit nombre de revues de haute qualité historiquement rédigées par des chercheurs seniors.
“Au cours des dernières années, arXiv a été inondé de papiers,” a expliqué une déclaration officielle sur le site. “L'IA générative / les grands modèles de langage ont contribué à cette inondation en rendant l'écriture de papiers—en particulier de papiers n'introduisant pas de nouveaux résultats de recherche—rapide et facile.”
La section Informatique de @arxiv exige désormais une révision par les pairs préalable pour les enquêtes littéraires et les articles de position. Détails dans un nouveau post de blog.
— Thomas G. Dietterich (@tdietterich) 31 octobre 2025
<br>
“Nous avons été poussés à cette décision par une grande augmentation des articles de recherche assistés par LLM,” a ajouté Thomas G. Dietterich, un modérateur d'arXiv et ancien président de l'Association for the Advancement of Artificial Intelligence, sur X. “Nous n'avons pas les ressources de modération pour examiner ces soumissions et identifier les bonnes enquêtes des mauvaises.”
Une recherche publiée dans Nature Human Behaviour a révélé qu'environ un quart de tous les résumés en informatique montrait des preuves de modification par un modèle de langage large d'ici septembre 2024. Une étude distincte dans Science Advances a montré que l'utilisation de l'IA dans les articles de recherche publiés en 2024 a explosé depuis le lancement de ChatGPT.
Source : ArXiv
Les modérateurs bénévoles d'ArXiv ont toujours filtré les soumissions en fonction de leur valeur académique et de leur pertinence thématique, mais ils ne réalisent pas d'évaluation par les pairs. Les articles de revue et les documents de position n'ont jamais été des types de contenu officiellement acceptés, bien que les modérateurs aient fait des exceptions pour les travaux de chercheurs établis ou de sociétés scientifiques. Ce système discrétionnaire a craqué sous le poids des soumissions générées par l'IA.
La plateforme gère désormais un volume de soumissions qui a été multiplié plusieurs fois ces dernières années, l'IA générative rendant triviale la production de papiers d'enquête superficiels.
La réponse de la communauté de recherche a été mitigée. Stephen Casper, un chercheur en sécurité de l'IA, a exprimé des inquiétudes quant au fait que la politique pourrait affecter de manière disproportionnée les chercheurs en début de carrière et ceux travaillant sur des sujets d'éthique et de gouvernance.
« Les articles de revue / de position sont de manière disproportionnée écrits par des jeunes, des personnes n'ayant pas accès à beaucoup de puissance de calcul, et des personnes qui ne sont pas dans des institutions ayant beaucoup d'expérience en publication », a-t-il écrit dans une critique.
D'autres ont simplement critiqué la position d'ArXiv comme étant incorrecte ( et même stupide ), certains soutenant même l'utilisation de l'IA pour détecter les articles générés par l'IA.
Thomas, il y a une forte opposition contre arxiv devenant des gardiens, s'orientant vers la révision par les pairs et ignorant le problème jusqu'à ce qu'il s'aggrave. Avez-vous envisagé certaines des propositions constructives faites par la communauté IA/ML ?
Avoir une section non modérée d'ArXiv ( de…
— Justin Angel (@JustinAngel) 2 novembre 2025
<br>
Un problème est que les outils de détection de l'IA se sont révélés peu fiables, avec des taux de faux positifs élevés qui peuvent injustement signaler un travail légitime. D'autre part, une étude récente a révélé que les chercheurs n'avaient pas réussi à identifier un tiers des résumés médicaux générés par ChatGPT comme étant écrits par une machine. L'American Association for Cancer Research a rapporté que moins de 25 % des auteurs ont divulgué l'utilisation de l'IA malgré des politiques de divulgation obligatoires.
La nouvelle exigence signifie que les auteurs doivent soumettre une documentation de l'évaluation par les pairs réussie, y compris les références de revues et les DOI. Les évaluations d'ateliers ne répondront pas à la norme. ArXiv a souligné que le changement n'affecte pour l'instant que la catégorie Informatique, bien que d'autres sections puissent adopter des politiques similaires si elles font face à des augmentations comparables de soumissions générées par l'IA.
Ce changement reflète un examen plus large dans l'édition académique. Des conférences majeures comme CVPR 2025 ont mis en œuvre des politiques pour rejeter d'office les articles soumis par des évaluateurs signalés pour conduite irresponsable. Les éditeurs sont confrontés à des articles qui contiennent des indices évidents d'IA, comme celui qui a commencé par : “Certainement, voici une introduction possible pour votre sujet.”
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
ArXiv Bloque les articles de sondage générés par l'IA après un "inondation" de soumissions de mauvaise qualité
En bref
Le Hub Art, Mode et Divertissement de Decrypt.
Découvrez SCENE
<br>
ArXiv, un dépôt gratuit fondé à l'Université Cornell qui est devenu le centre de référence pour des milliers de scientifiques et de technologues à travers le monde pour publier des articles de recherche précoce, n'acceptera plus d'articles de revue ou de documents de position dans sa catégorie Informatique, à moins qu'ils n'aient déjà été soumis à une évaluation par les pairs dans un journal ou une conférence.
Le changement de politique, annoncé le 31 octobre, intervient après un “flux” de documents d'enquête générés par l'IA que les modérateurs décrivent comme “peu plus que des bibliographies annotées.” Le dépôt reçoit maintenant des centaines de ces soumissions chaque mois, contre un petit nombre de revues de haute qualité historiquement rédigées par des chercheurs seniors.
“Au cours des dernières années, arXiv a été inondé de papiers,” a expliqué une déclaration officielle sur le site. “L'IA générative / les grands modèles de langage ont contribué à cette inondation en rendant l'écriture de papiers—en particulier de papiers n'introduisant pas de nouveaux résultats de recherche—rapide et facile.”
<br>
“Nous avons été poussés à cette décision par une grande augmentation des articles de recherche assistés par LLM,” a ajouté Thomas G. Dietterich, un modérateur d'arXiv et ancien président de l'Association for the Advancement of Artificial Intelligence, sur X. “Nous n'avons pas les ressources de modération pour examiner ces soumissions et identifier les bonnes enquêtes des mauvaises.”
Une recherche publiée dans Nature Human Behaviour a révélé qu'environ un quart de tous les résumés en informatique montrait des preuves de modification par un modèle de langage large d'ici septembre 2024. Une étude distincte dans Science Advances a montré que l'utilisation de l'IA dans les articles de recherche publiés en 2024 a explosé depuis le lancement de ChatGPT. Source : ArXiv
Les modérateurs bénévoles d'ArXiv ont toujours filtré les soumissions en fonction de leur valeur académique et de leur pertinence thématique, mais ils ne réalisent pas d'évaluation par les pairs. Les articles de revue et les documents de position n'ont jamais été des types de contenu officiellement acceptés, bien que les modérateurs aient fait des exceptions pour les travaux de chercheurs établis ou de sociétés scientifiques. Ce système discrétionnaire a craqué sous le poids des soumissions générées par l'IA.
La plateforme gère désormais un volume de soumissions qui a été multiplié plusieurs fois ces dernières années, l'IA générative rendant triviale la production de papiers d'enquête superficiels.
La réponse de la communauté de recherche a été mitigée. Stephen Casper, un chercheur en sécurité de l'IA, a exprimé des inquiétudes quant au fait que la politique pourrait affecter de manière disproportionnée les chercheurs en début de carrière et ceux travaillant sur des sujets d'éthique et de gouvernance.
« Les articles de revue / de position sont de manière disproportionnée écrits par des jeunes, des personnes n'ayant pas accès à beaucoup de puissance de calcul, et des personnes qui ne sont pas dans des institutions ayant beaucoup d'expérience en publication », a-t-il écrit dans une critique.
D'autres ont simplement critiqué la position d'ArXiv comme étant incorrecte ( et même stupide ), certains soutenant même l'utilisation de l'IA pour détecter les articles générés par l'IA.
<br>
Un problème est que les outils de détection de l'IA se sont révélés peu fiables, avec des taux de faux positifs élevés qui peuvent injustement signaler un travail légitime. D'autre part, une étude récente a révélé que les chercheurs n'avaient pas réussi à identifier un tiers des résumés médicaux générés par ChatGPT comme étant écrits par une machine. L'American Association for Cancer Research a rapporté que moins de 25 % des auteurs ont divulgué l'utilisation de l'IA malgré des politiques de divulgation obligatoires.
La nouvelle exigence signifie que les auteurs doivent soumettre une documentation de l'évaluation par les pairs réussie, y compris les références de revues et les DOI. Les évaluations d'ateliers ne répondront pas à la norme. ArXiv a souligné que le changement n'affecte pour l'instant que la catégorie Informatique, bien que d'autres sections puissent adopter des politiques similaires si elles font face à des augmentations comparables de soumissions générées par l'IA.
Ce changement reflète un examen plus large dans l'édition académique. Des conférences majeures comme CVPR 2025 ont mis en œuvre des politiques pour rejeter d'office les articles soumis par des évaluateurs signalés pour conduite irresponsable. Les éditeurs sont confrontés à des articles qui contiennent des indices évidents d'IA, comme celui qui a commencé par : “Certainement, voici une introduction possible pour votre sujet.”