arXiv、AI生成のずさんな投稿者を1年間投稿禁止に Send the arXiv AI-generated slop, get a yearlong vacation from submissions
- プレプリントサーバーarXivは、AI生成による低品質またはハルシネーションを含む論文を提出した投稿者を最長1年間投稿禁止にする方針を発表した。
- 査読の前段階で氾濫する粗悪な原稿への対策強化が狙いとされる。
English summary
- The preprint server arXiv announced it will ban submitters of AI-generated, hallucination-laden papers for up to a year, tightening its moderation policies as low-quality LLM-produced manuscripts flood the platform.
物理学や計算機科学を中心に世界中の研究者が利用するプレプリントサーバーarXivが、生成AIによる粗悪な投稿への対策を一段と強化する。同サイトは、AIが生成したハルシネーションを含む論文や、明らかに自動生成と見られる低品質原稿を提出した投稿者に対し、最長1年間の投稿禁止措置を科す方針を明らかにした。
arXivは査読を伴わない公開リポジトリであり、研究成果を迅速に共有する場として学術コミュニティに不可欠な存在となっている。しかし近年、ChatGPTをはじめとする大規模言語モデル(LLM)の普及により、存在しない参考文献や事実誤認を多数含む「もっともらしいが中身のない」論文の投稿が急増していると報告されてきた。特にレビュー論文カテゴリでは問題が顕著で、同サイトは既に著者がモデレーターの推薦を受けることを必須化するなど対応を進めてきた。
今回の措置では、AI生成と判定された粗悪な投稿を行ったアカウントに対し、最長1年間の投稿停止というより厳しい制裁を導入する点が特徴だ。arXivはAI支援の執筆そのものを禁止するわけではなく、内容に責任を持たずに丸投げで提出する行為を問題視していると見られる。
プレプリントサーバーarXivは、AI生成による低品質またはハルシネーションを含む論文を提出した投稿者を最長1年間投稿禁止にする方針を発表した。
類似の動きは学術出版界全体に広がっている。NatureやScienceなどの主要誌は既にAIを著者として認めない方針を示し、ElsevierやSpringer Natureも生成AIの利用開示を義務付けている。一方で、AI検出ツール自体の精度には限界があり、誤検出による研究者の不利益も懸念されている。arXivが具体的にどの基準で「AI生成スロップ」を判定するのか、運用の透明性が今後の焦点となる可能性がある。プレプリント文化の信頼性をいかに維持するか、研究インフラの根幹に関わる課題と言える。
arXiv, the preprint server that has become indispensable infrastructure for physics, computer science, and mathematics research, is sharpening its response to a rising tide of AI-generated submissions. The site announced it will ban submitters who upload papers riddled with AI hallucinations or otherwise obvious large language model slop for up to a year.
Unlike peer-reviewed journals, arXiv serves as an open repository where researchers share findings quickly, often before formal review. That openness has made it a vital channel for scientific communication, but it has also left the platform vulnerable to the flood of plausible-sounding yet hollow manuscripts produced by tools like ChatGPT. Moderators have reported a sharp uptick in submissions featuring fabricated citations, nonexistent equations, and factually incorrect claims dressed up in confident academic prose.
The problem has been especially acute in review-style papers, where LLMs can generate superficially coherent surveys with little underlying expertise. Earlier this year, arXiv tightened rules around review articles, requiring authors to first secure endorsements from recognized moderators. The new yearlong ban escalates enforcement further, signaling that repeat or egregious offenders will face meaningful consequences rather than mere rejection of a single paper.
Notably, arXiv is not banning AI-assisted writing outright. The policy appears aimed at submitters who outsource the substance of their work to a model without verifying its output, rather than those who use LLMs for legitimate editing or drafting support. That distinction mirrors the stance taken by major journals: Nature, Science, and publishers like Elsevier and Springer Nature have all stated that AI tools cannot be listed as authors and that any use must be disclosed transparently.
The broader ecosystem response reflects growing anxiety about the integrity of scientific literature in the LLM era. Tools designed to detect AI-generated text have proven unreliable, with false positives that can unfairly tarnish legitimate researchers, particularly non-native English speakers whose writing styles can trigger detectors. How arXiv will operationalize its judgments about what constitutes AI slop, and whether it will publish clear criteria, remains an open question. Transparency around enforcement will likely determine whether the policy succeeds in deterring bad actors without chilling legitimate use.
The stakes extend beyond arXiv itself. Preprint servers have become a core part of how modern science is communicated, with papers frequently cited, discussed, and built upon long before any journal version appears. If the signal-to-noise ratio degrades too far, the value of the entire preprint ecosystem could erode. Other repositories, including bioRxiv and SSRN, may be watching arXiv's experiment closely as they grapple with similar pressures. For now, arXiv's move suggests that even the most permissive corners of scientific publishing are drawing harder lines against unchecked generative AI output.
本ページの本文・要約は AI による自動生成です。正確性は元記事 (arstechnica.com) をご確認ください。