11 ポイント 投稿者 GN⁺ 2025-11-02 | 1件のコメント | WhatsAppで共有
  • arXivのコンピュータサイエンス(CS)カテゴリが、レビュー(サーベイ)論文とポジションペーパーに対する新しい審査運用を導入
  • 今後、これらの論文はジャーナルまたは学会で査読(peer review)を経て採択された後にのみarXivへ投稿可能
  • 投稿時には査読を通過したことを証明する文書(例:ジャーナル参照、DOIメタデータ)を必ず含める必要あり
  • 検証書類のない投稿は却下される可能性が高く、これは最近の生成AIによる過剰な論文流入に対応するための措置
  • arXivはこの変更を通じて、質の高いレビュー論文のみを共有し、中核となる研究論文の流通に集中することを目的としている

変更された投稿要件

  • レビュー論文とポジションペーパーは、ジャーナルまたは学会で採択され査読が完了した後にのみarXivへ投稿可能
    • 投稿時に査読通過の証明書類を含める必要がある
    • 証明がない場合は却下される可能性が高い
  • ワークショップ水準の審査は従来型の査読とは見なされず、投稿要件を満たさない

政策的背景

  • arXivの公式ポリシー上、レビュー論文とポジションペーパーは正式に許可されたコンテンツ種別ではない
    • 過去には少数の高品質な論文のみがモデレーターの裁量で受理されていた
  • 最近は**生成AIと大規模言語モデル(LLM)**の拡散により、質の低いレビュー論文が急増
    • その多くは単なる参考文献の列挙にとどまり、新たな研究上の議論が乏しい
  • こうした状況でモデレーターの審査負担が過大になり、arXivの**本来の目的(研究論文の共有)**に支障をきたしている

変更の目的

  • 専門家が執筆した価値あるレビュー論文およびポジションペーパーだけをarXiv上で容易に見つけられるよう支援
  • モデレーターの業務負担を軽減し、正式なコンテンツ種別の審査に集中できるようにする
  • arXivの中核目標である迅速で自由な科学的発見の促進を維持する

従来との違い

  • 以前のレビュー論文は、少数の著名研究者公式機関(例:Annual Reviews、IEEE、Computing Surveys)からの依頼で執筆されることが多く、品質が高かった
  • ポジションペーパーも、学会や政府系研究団体(例:Computing Research Association、National Academies)によって作成されたものが大半だった
  • 現在では毎月数百本のレビュー論文が投稿されており、品質管理が困難な水準に達している

外部査読機関の活用

  • arXivには独自に品質検証を行うための人員とリソースが不足している
  • その代わりに、**信頼できる外部査読機関(学会・ジャーナル)**による検証を認める
    • これらの機関は、プライバシー、倫理、安全、セキュリティなどAI関連のテーマについて詳細な審査を行う
  • これによりarXivは、品質が保証された論文だけを共有できるようになる

再投稿と例外

  • 査読未完了を理由に却下された論文は、その後評価を完了した場合、**異議申し立て(appeal)**手続きを通じて再投稿可能
    • ただし、承認された異議申し立てなしに再投稿することはできない
  • 科学技術の社会的影響を扱う研究論文(cs.CY、physics.soc-ph など)は、今回の変更の適用対象外

他カテゴリへの波及可能性

  • arXivの各カテゴリは専門モデレーターによって独立して運営されている
  • すべてのカテゴリが同一のポリシーに従う一方で、レビュー論文は基本的に非公式なコンテンツ種別である
  • 他分野でもLLMベースの論文急増が起きた場合、同様の審査強化措置が導入される可能性がある
  • そのような変更がある場合は公式に告知される予定

1件のコメント

 
GN⁺ 2025-11-02
Hacker Newsの意見
  • 人が生み出したに応じて報酬を与える構造そのものが問題だと指摘している
    研究者に論文数を基準にインセンティブを与えると、最低限の品質でできるだけ多くの論文を量産する形でシステムを悪用するようになる
    閲覧数ベースの報酬や広告表示ベースの報酬も同様に歪んだ行動を誘発する
    結局、オンライン世界は人間のためではなく、アルゴリズム最適化のために設計されたシステムだという話

    • 似た構造はホームレス支援産業でも見られると聞いたことがある
      サンフランシスコではNGOが受ける支援額が「支援したホームレスの人数」に応じて決まるため、結果としてホームレスを減らすより維持するインセンティブが生まれる
    • LLMを責めるべきではないという立場
      問題は人間とインセンティブ制度であって、道具そのものではない
    • LLMの魅力そのものが「速い出力」にある
      コード行数やコミット数のような無意味な指標で成果を測る文化がすでに間違っている
      私たちは今、Goodhartの地獄に生きているようだ — 指標の操作が目的になってしまった世界だ
      冗談めかして言っているが、こうした指標中心の経営が最終的に大規模障害を引き起こす企業の現実を風刺している
    • では、品質中心の報酬制度とはどのような姿であるべきなのか気になる
      人間中心のオンライン世界はどのような形になるのか、そしてコンテンツ制作者はどう報われるべきかを問いかけている
    • 一部はこの問題を誤解していると見る
      論文数ではなく、研究費の確保と提案書の品質こそが本当の核心だと強調している
  • arXivがプレプリント(事前公開論文)をもう受け付けないという誤解があった
    実際には「レビュー論文」と「ポジションペーパー」だけが
    ジャーナルまたは学会で査読通過後
    に投稿可能へと変わったということ

    • LLMが技術的貢献のない意見型論文を容易に生成できるため、この措置が必要だと説明している
    • これは方針変更ではなく、もともとこの種のタイプはarXivの許容範囲に含まれていなかった
    • ジャーナル版はアップロードできないが、フォーマットを除けば同一内容は掲載できる
    • arXivが履歴書向けブログのようになりつつあるため、今回の変更はむしろ前向きかもしれないという見方
    • それでも研究論文は引き続き投稿可能だ
  • arXivにレピュテーションシステムを導入しようという提案が出ている
    著者が公開PGPキーを一緒に載せ、信頼ネットワークを形成しようというアイデアだ

    • web-of-trustベースで、誰でも論文を推薦し、信頼ネットワークを計算して品質を判断する構造を提案している
      既存の学術誌より閉鎖的ではなく、完全開放よりは秩序ある形になりうる
    • arXivが無料プレプリントを維持しつつ、専門家レビューサービスを有料で提供するモデルも提案されている
    • ある教授は「アイビーリーグ以外の研究者は排除しよう」という極端な提案をしたとも伝えられている — 皮肉としてレピュテーションの不公正さを指摘している
  • arXivの品質管理の問題を指摘している
    10月だけで26,000件の投稿があり(統計リンク)、検証されていない論文があふれている
    少額の投稿料を取ればスパムを減らせるのではないかという提案だ

    • ただし、LLM利用者を全利用者の代わりに直接制裁すべきだという意見もある
    • 問題は金ではなく、論文によって就職・入学・ビザなどの実利が得られる点にあるという分析もある
    • 投稿料を設けるなら、最低限の簡易レビュー費用を賄うべきで、レビュー水準に応じて「未レビュー・簡易レビュー・完全レビュー・再現性検証」などに区分しようという提案もある
    • Metafilterのように1ドルの登録料だけでもスパム抑止効果があるだろうという意見も出ている
  • HN投稿のタイトルが不正確だという指摘があった
    実際には「AIが書いたレビュー論文の急増により、arXivのCS分野ではレビュー論文にピアレビューを要求する」が正確な表現だ

    • 元のタイトルにある「Due to LLMs」は「LLMが書いた論文」と誤解される可能性があった
    • arXiv本来の目的は査読前公開なので、今回の措置がその価値を損なうわけではない
    • 一部はLLM論文が生み出す奇妙なユーモアを楽しめなくなる点を惜しんでいる
  • 完全AI生成論文をarXivに載せる人たちの動機が気になるという声
    投稿プロセスが面倒なのに、なぜわざわざやるのか疑問だという

    • h-index操作のために論文数を増やす学界の古い慣行が、LLMによって加速していると説明されている
    • EB-1ビザなどでは「学術論文の著者」であることが評価項目のため、形式的にでも論文を載せることに大きな価値がある
    • 単に実績アピール用として家族や雇用主に見せたいのではないか、という推測もある
  • 低品質な論文の大半はAI関連テーマだと指摘している
    多くの人はLLMに初めて触れると、「LLMにLLMについて書かせよう」という自己参照的な実験をする
    その結果、元データのごった煮的な要約物が生まれる

    • AI生成論文はCS以外の分野でも見つかっており、中には実在しない論文を引用するものもある
    • arXivが「新規研究のみ許可」へと狭められないことを望む声もある。すでにAI生成の研究論文も存在し、こちらのほうが検出は難しい
    • arXivの価値は初期フィードバックと公開性にあるため、「査読済み論文のみ許可」は事実上「来るな」と言っているのに等しい
  • arXivの今回の措置を前向きに評価している
    変化の速いmulti-agent systemsagentic LLMsの分野では、明確な基準が必要だ
    論文種別、データ・コードのリンク、ベンチマーク範囲などの機械可読メタデータを求めれば信頼性を高められる
    SurveyPositionタグと再現性チェックリストを標準化すれば、初期アイデアを妨げずに品質を保てる

  • arXivはすでにかなり前から自己宣伝用の低品質論文という問題を抱えていた
    LLM以前から存在した現象だ

    • しかしarXivは本質的に結果を素早く共有するプラットフォームなので、品質低下は「苦痛」というより、利用者が自分で選別して読むべき構造だと見る向きもある