SCENEを見る
<br>
コーネル大学に設立された無料のリポジトリであるArXivは、世界中の何千人もの科学者や技術者が早期の研究論文を発表するためのハブとなってきましたが、今後はコンピュータサイエンスカテゴリーでのレビュー記事やポジションペーパーを、既にジャーナルや会議でピアレビューを通過していない限り受け付けなくなります。
この方針の変更は、10月31日に発表され、モデレーターが「注釈付き文献目録に過ぎない」と表現するAI生成の調査論文の「洪水」の後に行われたものです。現在、このリポジトリは毎月数百件のこれらの提出を受けており、歴史的にはシニア研究者によって書かれた高品質のレビューの小さな流れから増加しました。
「ここ数年、arXivは論文であふれています」とサイトの公式声明が説明しました。「生成AIや大規模言語モデルは、特に新しい研究結果を紹介しない論文を迅速かつ容易に執筆できるようにすることで、この洪水に拍車をかけています。」
@arxivのコンピュータサイエンスセクションは、文献調査およびポジションペーパーに対して事前の査読を要求するようになりました。詳細は新しいブログ投稿に記載されています。 — トーマス・G・ディッタリッヒ (@tdietterich) 2025年10月31日
@arxivのコンピュータサイエンスセクションは、文献調査およびポジションペーパーに対して事前の査読を要求するようになりました。詳細は新しいブログ投稿に記載されています。
— トーマス・G・ディッタリッヒ (@tdietterich) 2025年10月31日
「我々は、LLM支援の調査論文の大幅な増加によりこの決定に至りました」と、アーカイブのモデレーターであり、人工知能の進歩のための協会の元会長であるトーマス・G・ディッタリッチはXで述べました。「我々には、これらの提出物を検討し、良い調査と悪い調査を識別するためのモデレーターのリソースがありません。」
Nature Human Behaviour に発表された研究によると、2024年9月までに、すべてのコンピュータサイエンスの要約のほぼ4分の1が大規模言語モデルの修正の証拠を示していることがわかりました。別の研究では、2024年に発表された研究論文におけるAIの使用がChatGPTの発売以来急増したことが示されています。 ソース: ArXiv
ArXivのボランティアモデレーターは常に学術的価値やトピックの関連性に基づいて提出物をフィルタリングしてきましたが、彼らは査読を行いません。レビュー記事やポジションペーパーは公式には受け入れられていないコンテンツタイプでしたが、モデレーターは確立された研究者や科学社会からの作品に対して例外を設けていました。その裁量システムはAI生成の提出物の重みに耐えきれませんでした。
プラットフォームは、最近数年で何倍にも増えた提出量を処理しており、生成AIによって表面的な調査論文を簡単に作成できるようになっています。
研究コミュニティからの反応はまちまちです。AI安全研究者のスティーブン・キャスパーは、この政策が初期キャリアの研究者や倫理およびガバナンスのトピックに取り組んでいる人々に不均等に影響を与える可能性があると懸念を表明しました。
「レビュー/ポジションペーパーは、若い人々、十分なコンピュータリソースを持たない人々、そして多くの出版経験を持つ機関に所属していない人々によって不均衡に書かれている」と彼は批評の中で書いた。
他の人は単にArXivの立場を間違っている(と批判し、さらには愚か)だとさえ言い、AI生成の論文を検出するためにAIの使用を支持する人さえいました。
トーマス、arxivがゲートキーパーになり、査読に偏り、問題が悪化するまで無視することに対する大きな反発があります。AI/MLコミュニティからの建設的提案を検討しましたか? ArXivの未修正セクションを持つ (から… — ジャスティン・エンジェル (@JustinAngel) 2025年11月2日
トーマス、arxivがゲートキーパーになり、査読に偏り、問題が悪化するまで無視することに対する大きな反発があります。AI/MLコミュニティからの建設的提案を検討しましたか?
— ジャスティン・エンジェル (@JustinAngel) 2025年11月2日
1つの問題は、AI検出ツールが信頼性が低く、高い誤検出率があるため、正当な作品を不当にフラグ付けする可能性があることです。一方、最近の研究では、研究者たちがChatGPTによって生成された医学的要約の3分の1を機械的に書かれたものとして特定できなかったことがわかりました。アメリカ癌学会は、義務的な開示ポリシーにもかかわらず、著者の25%未満がAIの使用を開示したと報告しています。
新しい要件は、著者が成功した査読の文書を提出しなければならないことを意味し、ジャーナルの参照やDOIを含みます。ワークショップのレビューは基準を満たしません。ArXivは、この変更が現時点ではコンピュータサイエンスカテゴリにのみ影響を与えることを強調しましたが、他のセクションもAI生成の提出が同様の急増に直面した場合には、同様のポリシーを採用する可能性があります。
この動きは、学術出版におけるより広範な見直しを反映しています。CVPR 2025のような主要な会議は、無責任な行動でフラグが立てられたレビュアーからの論文をデスクリジェクトする方針を導入しています。出版社は、「確かに、あなたのトピックのための可能な導入部です。」というように明らかなAIの兆候を含む論文に苦慮しています。
8.99K 人気度
57.16K 人気度
24.22K 人気度
5.91K 人気度
14.6K 人気度
ArXivは、質の低い提出物の「洪水」の後、AI生成の調査論文をブロックしました。
簡単に言うと
デクリプトのアート、ファッション、エンターテイメントハブ。
SCENEを見る
<br>
コーネル大学に設立された無料のリポジトリであるArXivは、世界中の何千人もの科学者や技術者が早期の研究論文を発表するためのハブとなってきましたが、今後はコンピュータサイエンスカテゴリーでのレビュー記事やポジションペーパーを、既にジャーナルや会議でピアレビューを通過していない限り受け付けなくなります。
この方針の変更は、10月31日に発表され、モデレーターが「注釈付き文献目録に過ぎない」と表現するAI生成の調査論文の「洪水」の後に行われたものです。現在、このリポジトリは毎月数百件のこれらの提出を受けており、歴史的にはシニア研究者によって書かれた高品質のレビューの小さな流れから増加しました。
「ここ数年、arXivは論文であふれています」とサイトの公式声明が説明しました。「生成AIや大規模言語モデルは、特に新しい研究結果を紹介しない論文を迅速かつ容易に執筆できるようにすることで、この洪水に拍車をかけています。」
<br>
「我々は、LLM支援の調査論文の大幅な増加によりこの決定に至りました」と、アーカイブのモデレーターであり、人工知能の進歩のための協会の元会長であるトーマス・G・ディッタリッチはXで述べました。「我々には、これらの提出物を検討し、良い調査と悪い調査を識別するためのモデレーターのリソースがありません。」
Nature Human Behaviour に発表された研究によると、2024年9月までに、すべてのコンピュータサイエンスの要約のほぼ4分の1が大規模言語モデルの修正の証拠を示していることがわかりました。別の研究では、2024年に発表された研究論文におけるAIの使用がChatGPTの発売以来急増したことが示されています。 ソース: ArXiv
ArXivのボランティアモデレーターは常に学術的価値やトピックの関連性に基づいて提出物をフィルタリングしてきましたが、彼らは査読を行いません。レビュー記事やポジションペーパーは公式には受け入れられていないコンテンツタイプでしたが、モデレーターは確立された研究者や科学社会からの作品に対して例外を設けていました。その裁量システムはAI生成の提出物の重みに耐えきれませんでした。
プラットフォームは、最近数年で何倍にも増えた提出量を処理しており、生成AIによって表面的な調査論文を簡単に作成できるようになっています。
研究コミュニティからの反応はまちまちです。AI安全研究者のスティーブン・キャスパーは、この政策が初期キャリアの研究者や倫理およびガバナンスのトピックに取り組んでいる人々に不均等に影響を与える可能性があると懸念を表明しました。
「レビュー/ポジションペーパーは、若い人々、十分なコンピュータリソースを持たない人々、そして多くの出版経験を持つ機関に所属していない人々によって不均衡に書かれている」と彼は批評の中で書いた。
他の人は単にArXivの立場を間違っている(と批判し、さらには愚か)だとさえ言い、AI生成の論文を検出するためにAIの使用を支持する人さえいました。
<br>
1つの問題は、AI検出ツールが信頼性が低く、高い誤検出率があるため、正当な作品を不当にフラグ付けする可能性があることです。一方、最近の研究では、研究者たちがChatGPTによって生成された医学的要約の3分の1を機械的に書かれたものとして特定できなかったことがわかりました。アメリカ癌学会は、義務的な開示ポリシーにもかかわらず、著者の25%未満がAIの使用を開示したと報告しています。
新しい要件は、著者が成功した査読の文書を提出しなければならないことを意味し、ジャーナルの参照やDOIを含みます。ワークショップのレビューは基準を満たしません。ArXivは、この変更が現時点ではコンピュータサイエンスカテゴリにのみ影響を与えることを強調しましたが、他のセクションもAI生成の提出が同様の急増に直面した場合には、同様のポリシーを採用する可能性があります。
この動きは、学術出版におけるより広範な見直しを反映しています。CVPR 2025のような主要な会議は、無責任な行動でフラグが立てられたレビュアーからの論文をデスクリジェクトする方針を導入しています。出版社は、「確かに、あなたのトピックのための可能な導入部です。」というように明らかなAIの兆候を含む論文に苦慮しています。