- 問題となった引用は、実際の発言者がしていない発言をAIが生成したにもかかわらず、出典付きで誤って表記されたものだと確認された
- 同メディアは今回の件を編集基準における深刻な失敗と規定し、すべての直接引用は実際の発言を反映しなければならないと明記した
- 内部調査の結果、追加の類似事例は見つかっておらず、今回の件は単独事例と把握されている
- Ars Technicaは、AI生成コンテンツは明確に表示されたデモ目的を除いて許可されないという方針を再確認し、読者と誤引用された人物に謝罪した
記事撤回と事件の概要
- Ars Technicaは金曜午後、AIツールが生成した虚偽の引用を含む記事を掲載していたことを明らかにし、当該記事を撤回した
- その引用は、実在の人物がしていない発言をAIが生成したにもかかわらず、出典付きで誤って表記した形だった
- 同メディアはこれを「深刻な基準違反」と規定した
- 編集部は「直接引用は必ず、出典元が実際に述べた内容を反映しなければならない」と明記した
内部調査と方針
- Ars TechnicaはAIツールへの過度な依存の危険性を長年取り上げており、その懸念は社内方針にも反映されている
- 今回の引用掲載は、その方針に沿わない形で行われたと説明した
- 最近の制作物を調査した結果、追加の問題は見つかっておらず、現時点では単発の事案とみられると述べた
AI生成物に関する規定
- Ars TechnicaはAIが生成した素材の掲載を原則として禁止している
- ただし、明確に表示され、デモ目的である場合に限って例外的に許可される
- 今回の件では、この規定が守られていなかった
謝罪と再発防止策
- 同メディアは今回の失敗について読者に謝罪し、虚偽引用の被害者であるScott Shambaughにも直接謝罪した
- 編集部は今回の件を受けて編集基準を強化し、再発防止を約束した
結論
- Ars Technicaは今回の件を通じて、AI生成コンテンツの検証と透明性確保の重要性を改めて確認した
- 編集上の信頼性回復と倫理的な報道基準の維持のため、社内手続きを強化している
2件のコメント
AIエージェントが私を中傷する文章を投稿した
AIエージェントが私を中傷する文章を書いた ― その後、さらに多くのことが起きた
Hacker Newsの意見
元技術ジャーナリストとして言うと、未検証のツールで報道の実験をするなら、必ず統制された環境で結果を細かく検証すべきだと思う
シニアエディターが必ず関与すべきで、まずは論争の少ない記事から始めるのがよい
また、記者が体調不良で記事を書けないのに、会社の文化や病気休暇の方針のせいで無理をしていたのなら、Arsは内部で振り返る必要がある
Benj EdwardsがBlueskyに投稿した謝罪文で責任を認めた
一部事情は説明したが、全面的に自分の責任だとしている。これが一度きりなのかは様子を見る必要がある
関連コメントでも述べられているように、AIに懐疑的な媒体であっても、ツールの限界を直接体験することは必要だ
最近関連したHNスレッドのまとめ
一部の購読者が、Arsが誤りを見つけて正直に撤回したことを過剰に称賛しているのが不思議だった。
実際には、これは基本的な報道倫理にすぎず、今回は当事者本人がコメントで指摘したことで明らかになったものだ
Arsと記者が責任を認めたのはよいが、撤回文の表現は物足りなかった
「基準に達していなかった」ではなく、「AIが生成した虚偽の引用を掲載した」と明記すべきだった。
そうすれば、以前その記事を読んだ人たちが誤情報を正せる
どの部分が捏造だったのか確認してみた。冒頭のGitHubの引用は本物だったが、最後のセクションの引用はすべて偽物だった
元文はShambaughのブログから取られたように見えたが、実際には存在しない文だった
原文はアーカイブリンクで確認できる
撤回された記事へのリンクがないのは奇妙だった
関連する議論はArsフォーラムで進んでいる
記事の元版はウェブアーカイブで見られる
今後どんな再発防止策を取るのか気になる。
なぜLLMの使用を開示しなかったのか、他の記事にも似た事例があるのではないかという疑問がある
今回は引用が偽物だったため発覚したが、そうでなければ気づかれなかったかもしれない
Arsが長年にわたってAI依存の危険性を警告してきたことを考えると、今回の件は特に衝撃的だ
引用の捏造は社内方針にも反しており、信頼回復は容易ではないだろう
幸い、引用対象者がLLMのアクセスを遮断していたおかげで、AIのハルシネーションが露呈した