2 ポイント 投稿者 GN⁺ 2026-02-17 | 2件のコメント | WhatsAppで共有
  • 問題となった引用は、実際の発言者がしていない発言をAIが生成したにもかかわらず、出典付きで誤って表記されたものだと確認された
  • 同メディアは今回の件を編集基準における深刻な失敗と規定し、すべての直接引用は実際の発言を反映しなければならないと明記した
  • 内部調査の結果、追加の類似事例は見つかっておらず、今回の件は単独事例と把握されている
  • Ars Technicaは、AI生成コンテンツは明確に表示されたデモ目的を除いて許可されないという方針を再確認し、読者と誤引用された人物に謝罪した

記事撤回と事件の概要

  • Ars Technicaは金曜午後、AIツールが生成した虚偽の引用を含む記事を掲載していたことを明らかにし、当該記事を撤回した
    • その引用は、実在の人物がしていない発言をAIが生成したにもかかわらず、出典付きで誤って表記した形だった
    • 同メディアはこれを「深刻な基準違反」と規定した
  • 編集部は「直接引用は必ず、出典元が実際に述べた内容を反映しなければならない」と明記した

内部調査と方針

  • Ars TechnicaはAIツールへの過度な依存の危険性を長年取り上げており、その懸念は社内方針にも反映されている
  • 今回の引用掲載は、その方針に沿わない形で行われたと説明した
  • 最近の制作物を調査した結果、追加の問題は見つかっておらず、現時点では単発の事案とみられると述べた

AI生成物に関する規定

  • Ars TechnicaはAIが生成した素材の掲載を原則として禁止している
    • ただし、明確に表示され、デモ目的である場合に限って例外的に許可される
    • 今回の件では、この規定が守られていなかった

謝罪と再発防止策

  • 同メディアは今回の失敗について読者に謝罪し、虚偽引用の被害者であるScott Shambaughにも直接謝罪した
  • 編集部は今回の件を受けて編集基準を強化し、再発防止を約束した

結論

  • Ars Technicaは今回の件を通じて、AI生成コンテンツの検証と透明性確保の重要性を改めて確認した
  • 編集上の信頼性回復と倫理的な報道基準の維持のため、社内手続きを強化している

2件のコメント

 
GN⁺ 2026-02-17
Hacker Newsの意見
  • 元技術ジャーナリストとして言うと、未検証のツールで報道の実験をするなら、必ず統制された環境で結果を細かく検証すべきだと思う
    シニアエディターが必ず関与すべきで、まずは論争の少ない記事から始めるのがよい
    また、記者が体調不良で記事を書けないのに、会社の文化や病気休暇の方針のせいで無理をしていたのなら、Arsは内部で振り返る必要がある

    • 最初はそういう示唆は記事にないと思っていたが、後で著者のソーシャルメディアを見て理解した。賛成する
    • 私の知るいくつかの衰退中のメディアでは、エディターが真っ先に解雇された。その後、品質は急激に落ち、悪循環が加速した。今ではシニアエディターすらいない場合も多い
    • 以前はジュニア記者が引用、日付、名前などをファクトチェックする役割を担っていたと記憶している
    • 高熱で寝込みながら在宅で働いていれば、こうしたミスは十分起こりうる。むしろ、具合の悪い人の原稿をそのまま通した組織のほうが問題だと思う
    • 根本的には、人々がジャーナリズムを無料で期待する文化が問題だと思う。購読料や広告を嫌い、アーカイブリンクで回避する態度が、記者に過度な負担を与えている。Arsの文化にも問題はあるが、より大きな社会的背景がある
  • Benj EdwardsがBlueskyに投稿した謝罪文で責任を認めた
    一部事情は説明したが、全面的に自分の責任だとしている。これが一度きりなのかは様子を見る必要がある

    • 問題の核心は、彼が熱を出した状態でベッドに横になりながら働いていたことだ。Ars Technicaの勤務文化が気になる
    • 謝罪文がまず共感を引き出す書き方から始まっていて、ミスを和らげようとしている印象だった。心からの謝罪には見えなかった
    • 私はArsに批判的だが、記者がAIツールを試すこと自体は悪くないと思う。ただ、もっと慎重であるべきだった。
      関連コメントでも述べられているように、AIに懐疑的な媒体であっても、ツールの限界を直接体験することは必要だ
    • 好奇心の強い読者が過去記事を掘り返して、似たような事例があったか探し始めそうだ
    • この件は特定の記者だけの問題ではなく、AIツールの利用がもたらす反復的な誤りをめぐる社会的議論の一部だ
  • 最近関連したHNスレッドのまとめ

  • 一部の購読者が、Arsが誤りを見つけて正直に撤回したことを過剰に称賛しているのが不思議だった。
    実際には、これは基本的な報道倫理にすぎず、今回は当事者本人がコメントで指摘したことで明らかになったものだ

    • それでも、修正して再発防止を約束した点は前向きに評価する。多くの組織はそれすらしない
    • 「二度とこういうことはない」と明確に述べたのは、他の媒体より良いと思う。中にはAIが記事全体を生成しているところもある
  • Arsと記者が責任を認めたのはよいが、撤回文の表現は物足りなかった
    「基準に達していなかった」ではなく、「AIが生成した虚偽の引用を掲載した」と明記すべきだった。
    そうすれば、以前その記事を読んだ人たちが誤情報を正せる

  • どの部分が捏造だったのか確認してみた。冒頭のGitHubの引用は本物だったが、最後のセクションの引用はすべて偽物だった
    元文はShambaughのブログから取られたように見えたが、実際には存在しない文だった
    原文はアーカイブリンクで確認できる

  • 撤回された記事へのリンクがないのは奇妙だった
    関連する議論はArsフォーラムで進んでいる
    記事の元版はウェブアーカイブで見られる

    • リンクがないのは**意図的な白洗い(whitewash)**のようにも感じる
    • ただし、撤回された記事へ再びリンクを張ることは、撤回の意味を薄れさせる可能性もある
    • 記事の著者はBenj EdwardsとKyle Orlandと明記されている
  • 今後どんな再発防止策を取るのか気になる。
    なぜLLMの使用を開示しなかったのか、他の記事にも似た事例があるのではないかという疑問がある
    今回は引用が偽物だったため発覚したが、そうでなければ気づかれなかったかもしれない

    • 結局のところ、「ミスだった、今後は気をつける」という程度の対応に見える
    • 公式見解は「記事自体をAIが書いたのではなく、引用の要約だけをAIに任せた」というものだ。ただ、その判断は非常に軽率だった
  • Arsが長年にわたってAI依存の危険性を警告してきたことを考えると、今回の件は特に衝撃的だ
    引用の捏造は社内方針にも反しており、信頼回復は容易ではないだろう
    幸い、引用対象者がLLMのアクセスを遮断していたおかげで、AIのハルシネーションが露呈した