ArXiv, AI araçlarının anket makalelerini kitlesel olarak üretmeyi kolaylaştırmasının ardından politikasını değiştirdi.
Artık Bilgisayar Bilimleri kategorisinde yalnızca hakemli inceleme veya pozisyon makaleleri kabul edilecektir.
Araştırmacılar ikiye bölünmüş durumda; bazıları kuralın erken kariyer yazarlarına zarar verdiğini uyarırken, diğerleri bunun AI spam'ını durdurmak için gerekli olduğunu savunuyor.
Decrypt'in Sanat, Moda ve Eğlence Merkezi.
SCENE'i Keşfet
<br>
Cornell Üniversitesi'nde kurulan ve dünya genelindeki binlerce bilim insanı ve teknoloji uzmanının erken araştırma makalelerini yayımlamak için başvurduğu ücretsiz bir arşiv olan ArXiv, Bilgisayar Bilimleri kategorisinde inceleme makaleleri veya pozisyon belgeleri kabul etmeyecek; yalnızca bir dergide veya konferansta hakem değerlendirmesinden geçmiş olanları kabul edecek.
Politika değişikliği, 31 Ekim'de duyuruldu ve moderatörlerin “sadece not düşülmüş bibliyografilerden biraz daha fazlası” olarak tanımladığı AI tarafından üretilen anket kağıtlarının “seli” sonrasında gerçekleşti. Şimdi depo, tarihte kıdemli araştırmacılar tarafından yazılan yüksek kaliteli incelemelerin küçük bir akıntısından, ayda yüzlerce bu tür başvuru almaktadır.
“Son birkaç yılda, arXiv makalelerle dolup taştı,” sitedeki resmi bir açıklama belirtti. “Üretken AI/büyük dil modelleri, özellikle yeni araştırma sonuçları sunmayan makalelerin hızlı ve kolay bir şekilde yazılmasını sağlayarak bu akıntıya katkıda bulundu.”
@arxiv'in Bilgisayar Bilimleri bölümü, Literatür Taramaları ve Pozisyon Belgeleri için öncelikli hakem incelemesi gerektirmektedir. Ayrıntılar yeni bir blog yazısında.
— Thomas G. Dietterich (@tdietterich) 31 Ekim 2025
<br>
“Bu karara büyük bir artışın etkisiyle LLM destekli anket makaleleri nedeniyle ulaştık,” diye ekledi Thomas G. Dietterich, bir arXiv moderatörü ve Yapay Zeka Geliştirme Derneği'nin eski başkanı, X'te. “Bu gönderileri incelemek ve iyi anketleri kötü olanlardan ayırmak için yeterli moderatör kaynağımız yok.”
Nature Human Behaviour dergisinde yayımlanan araştırma, 2024 Eylül ayına kadar bilgisayar bilimi özetlerinin neredeyse dörtte birinin büyük dil modeli değişikliği gösterdiğini buldu. Science Advances dergisinde yapılan ayrı bir çalışmada, 2024 yılında yayımlanan araştırma makalelerinde yapay zeka kullanımının ChatGPT'nin lansmanından bu yana fırladığı gösterildi.
Kaynak: ArXiv
ArXiv'in gönüllü moderatörleri her zaman başvuruları akademik değer ve konuya uygunluk açısından filtrelemiştir, ancak hakem incelemesi yapmazlar. İnceleme makaleleri ve pozisyon belgeleri resmi olarak kabul edilen içerik türleri olmamıştır, ancak moderatörler köklü araştırmacılardan veya bilimsel derneklerden gelen çalışmalar için istisnalar yapmışlardır. O takdir yetkisine dayalı sistem, AI tarafından üretilen başvuruların ağırlığı altında kırıldı.
Platform, son yıllarda katlanarak artan bir başvuru hacmini yönetiyor ve üretken yapay zeka, yüzeysel anket çalışmalarını üretmeyi son derece kolay hale getiriyor.
Araştırma topluluğundan gelen yanıt karışıktı. Bir AI güvenliği araştırmacısı olan Stephen Casper, politikanın erken kariyer araştırmacılarını ve etik ile yönetişim konularında çalışanları orantısız bir şekilde etkileyebileceği konusunda endişelerini dile getirdi.
“İnceleme/pozisyon makaleleri, orantısız bir şekilde genç insanlar, çok fazla hesaplama erişimi olmayan insanlar ve çok fazla yayın deneyimi olan kurumlarda bulunmayan insanlar tarafından yazılmaktadır,” diye yazdı bir eleştiride.
Diğerleri, ArXiv'in tutumunu yanlış ve hatta saçma olarak eleştirdi, bazıları ise AI tarafından üretilen makaleleri tespit etmek için AI kullanılmasını destekledi.
Thomas, arxiv'in Gatekeeper olmasına, hakemli yayıncılığa yönelmesine ve sorunu daha kötü hale gelene kadar görmezden gelmesine karşı önemli bir itiraz var. AI/ML topluluğu tarafından yapılan yapıcı önerileri düşündünüz mü?
ArXiv ('den denetimsiz bir bölüm olsun…
— Justin Angel )@JustinAngel( 2 Kasım 2025
<br>
Bir sorun, AI tespit araçlarının güvenilmez olduğu, yüksek yanlış pozitif oranları ile meşru çalışmaları haksız yere işaretleyebileceğidir. Öte yandan, yakın zamanda yapılan bir çalışma, araştırmacıların ChatGPT tarafından üretilen tıbbi özetlerin üçte birini makine yazımı olarak tanımlamada başarısız olduğunu buldu. Amerikan Kanser Araştırmaları Derneği, yazarların %25'inden azının zorunlu açıklama politikalarına rağmen AI kullanımını açıkladığını bildirdi.
Yeni gereklilik, yazarların başarılı hakem incelemesi belgelerini, dergi referansları ve DOI'ler dahil olmak üzere sunmaları gerektiği anlamına geliyor. Atölye incelemeleri bu standardı karşılamayacak. ArXiv, değişikliğin şimdilik yalnızca Bilgisayar Bilimleri kategorisini etkilediğini vurguladı, ancak diğer bölümler benzer yapay zeka üretimli başvurularda karşılaştırılabilir bir artışla karşılaşmaları durumunda benzer politikaları benimseyebilir.
Bu hareket, akademik yayıncılıkta daha geniş bir hesaplaşmayı yansıtıyor. CVPR 2025 gibi büyük konferanslar, sorumsuz davranışlar için işaretlenmiş hakemlerden gelen makaleleri doğrudan reddetme politikaları uygulamaya koydu. Yayıncılar, “Kesinlikle, işte konunuz için olası bir giriş” şeklinde başlayan, bariz yapay zeka ipuçları içeren makalelerle başa çıkmakta zorlanıyor.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ArXiv, 'Çöp' Gönderimlerin 'Selinden' Sonra AI-Üretimli Anket Kağıtlarını Engelledi
Kısaca
Decrypt'in Sanat, Moda ve Eğlence Merkezi.
SCENE'i Keşfet
<br>
Cornell Üniversitesi'nde kurulan ve dünya genelindeki binlerce bilim insanı ve teknoloji uzmanının erken araştırma makalelerini yayımlamak için başvurduğu ücretsiz bir arşiv olan ArXiv, Bilgisayar Bilimleri kategorisinde inceleme makaleleri veya pozisyon belgeleri kabul etmeyecek; yalnızca bir dergide veya konferansta hakem değerlendirmesinden geçmiş olanları kabul edecek.
Politika değişikliği, 31 Ekim'de duyuruldu ve moderatörlerin “sadece not düşülmüş bibliyografilerden biraz daha fazlası” olarak tanımladığı AI tarafından üretilen anket kağıtlarının “seli” sonrasında gerçekleşti. Şimdi depo, tarihte kıdemli araştırmacılar tarafından yazılan yüksek kaliteli incelemelerin küçük bir akıntısından, ayda yüzlerce bu tür başvuru almaktadır.
“Son birkaç yılda, arXiv makalelerle dolup taştı,” sitedeki resmi bir açıklama belirtti. “Üretken AI/büyük dil modelleri, özellikle yeni araştırma sonuçları sunmayan makalelerin hızlı ve kolay bir şekilde yazılmasını sağlayarak bu akıntıya katkıda bulundu.”
<br>
“Bu karara büyük bir artışın etkisiyle LLM destekli anket makaleleri nedeniyle ulaştık,” diye ekledi Thomas G. Dietterich, bir arXiv moderatörü ve Yapay Zeka Geliştirme Derneği'nin eski başkanı, X'te. “Bu gönderileri incelemek ve iyi anketleri kötü olanlardan ayırmak için yeterli moderatör kaynağımız yok.”
Nature Human Behaviour dergisinde yayımlanan araştırma, 2024 Eylül ayına kadar bilgisayar bilimi özetlerinin neredeyse dörtte birinin büyük dil modeli değişikliği gösterdiğini buldu. Science Advances dergisinde yapılan ayrı bir çalışmada, 2024 yılında yayımlanan araştırma makalelerinde yapay zeka kullanımının ChatGPT'nin lansmanından bu yana fırladığı gösterildi. Kaynak: ArXiv
ArXiv'in gönüllü moderatörleri her zaman başvuruları akademik değer ve konuya uygunluk açısından filtrelemiştir, ancak hakem incelemesi yapmazlar. İnceleme makaleleri ve pozisyon belgeleri resmi olarak kabul edilen içerik türleri olmamıştır, ancak moderatörler köklü araştırmacılardan veya bilimsel derneklerden gelen çalışmalar için istisnalar yapmışlardır. O takdir yetkisine dayalı sistem, AI tarafından üretilen başvuruların ağırlığı altında kırıldı.
Platform, son yıllarda katlanarak artan bir başvuru hacmini yönetiyor ve üretken yapay zeka, yüzeysel anket çalışmalarını üretmeyi son derece kolay hale getiriyor.
Araştırma topluluğundan gelen yanıt karışıktı. Bir AI güvenliği araştırmacısı olan Stephen Casper, politikanın erken kariyer araştırmacılarını ve etik ile yönetişim konularında çalışanları orantısız bir şekilde etkileyebileceği konusunda endişelerini dile getirdi.
“İnceleme/pozisyon makaleleri, orantısız bir şekilde genç insanlar, çok fazla hesaplama erişimi olmayan insanlar ve çok fazla yayın deneyimi olan kurumlarda bulunmayan insanlar tarafından yazılmaktadır,” diye yazdı bir eleştiride.
Diğerleri, ArXiv'in tutumunu yanlış ve hatta saçma olarak eleştirdi, bazıları ise AI tarafından üretilen makaleleri tespit etmek için AI kullanılmasını destekledi.
<br>
Bir sorun, AI tespit araçlarının güvenilmez olduğu, yüksek yanlış pozitif oranları ile meşru çalışmaları haksız yere işaretleyebileceğidir. Öte yandan, yakın zamanda yapılan bir çalışma, araştırmacıların ChatGPT tarafından üretilen tıbbi özetlerin üçte birini makine yazımı olarak tanımlamada başarısız olduğunu buldu. Amerikan Kanser Araştırmaları Derneği, yazarların %25'inden azının zorunlu açıklama politikalarına rağmen AI kullanımını açıkladığını bildirdi.
Yeni gereklilik, yazarların başarılı hakem incelemesi belgelerini, dergi referansları ve DOI'ler dahil olmak üzere sunmaları gerektiği anlamına geliyor. Atölye incelemeleri bu standardı karşılamayacak. ArXiv, değişikliğin şimdilik yalnızca Bilgisayar Bilimleri kategorisini etkilediğini vurguladı, ancak diğer bölümler benzer yapay zeka üretimli başvurularda karşılaştırılabilir bir artışla karşılaşmaları durumunda benzer politikaları benimseyebilir.
Bu hareket, akademik yayıncılıkta daha geniş bir hesaplaşmayı yansıtıyor. CVPR 2025 gibi büyük konferanslar, sorumsuz davranışlar için işaretlenmiş hakemlerden gelen makaleleri doğrudan reddetme politikaları uygulamaya koydu. Yayıncılar, “Kesinlikle, işte konunuz için olası bir giriş” şeklinde başlayan, bariz yapay zeka ipuçları içeren makalelerle başa çıkmakta zorlanıyor.