9 ポイント 投稿者 darjeeling 22 일 전 | 4件のコメント | WhatsAppで共有

スウェーデンの研究者が、完全に架空の病気 "ビクソニマニア(Bixonimania)" を作り、AIチャットボットがこれを実在の病気のように案内するかどうかを実験した。結果は衝撃的だった。ChatGPT、Google Gemini、Microsoft Copilot、Perplexity など主要なAIシステムがそろってこの偽の病気を本物のように説明し、さらには偽の論文が実際の学術誌で引用される事態にまで発展した。


実験の全容

ヨーテボリ大学の医学研究者 Almira Osmanovic Thunström は、大規模言語モデル(LLM)が誤情報を取り込み、あたかも信頼できる健康情報であるかのように提示してしまうかを検証するため、この実験を設計した。

彼女は "ビクソニマニア" という名前を選んだが、眼疾患に "mania(躁病)" という精神医学用語を付けるのは、医療専門家なら誰でも不自然だと感じるはずの組み合わせであることから、意図的に滑稽な名前を選んだと説明している。

2024年4月〜5月、彼女はAI生成の写真をプロフィールに使う架空の研究者 "Lazljiv Izgubljenovic" の名義で、偽のプレプリント2本を学術ソーシャルネットワーク SciProfiles に掲載した。

論文の中には、偽物であることを示す手がかりが随所に隠されていた。謝辞には "USS Enterprise の船内実験室"、"宇宙艦隊アカデミー"、"指輪物語大学" への謝意が記され、本文には "この論文全体は作り話である" という文言まで含まれていた。


AIたちの反応

偽情報が掲載されてわずか数日で、主要なAIチャットボットはビクソニマニアを実在の病気のように説明し始めた。2024年4月13日、Microsoft の Copilot はこれを "興味深く希少な疾患" と述べ、同日 Google Gemini は "青色光への過度な曝露で生じる疾患" と説明して眼科受診を勧めた。Perplexity は、9万人に1人という有病率まで提示した。

2026年3月になっても状況は大きく改善していなかった。Microsoft Copilot は "まだ広く認められた診断名ではないが、青色光曝露に関連する良性疾患として報告されている" と回答し、Perplexity は "新たに台頭している用語" と表現した。


さらに深刻な問題: 学術誌の汚染

この偽論文は、実際の学術誌でも引用された。インドの研究チームが Springer Nature 傘下のジャーナル Cureus に掲載した論文で、ビクソニマニアが "青色光に関連する新しいタイプの眼窩周囲色素沈着症" として事実のように引用されたのだ。当該論文は、Nature の問い合わせを受けた後の2026年3月30日に撤回された。

UCL の健康情報に関する誤情報研究者 Alex Ruani は、この実験を "虚偽情報・誤情報がどのように機能するかを示す教科書的な事例" と評価し、"AIだけでなく、偽研究を引用した人間の研究者までもがだまされたという点で、私たちの信頼は金のように大切に守らなければならない" と警告した。


なぜこうしたことが起きるのか?

ハーバード大学医学部のAI・医療専門家 Mahmud Omar の研究によると、LLM はソーシャルメディアの投稿よりも、病院の退院記録や臨床論文のように専門的に整形されたテキストを処理する際に、より多くの虚偽情報を生成し、もっともらしく補足説明する傾向がある。彼は "テキストが医師の文章のように見えるほど、ハルシネーション率は高くなる" と述べている。


企業各社の説明

  • OpenAI: "現在 ChatGPT を動かしているモデルでは医療情報の正確性が大きく向上しており、以前のモデルに基づく研究結果は現在のユーザー体験とは異なる"
  • Google: "初期モデルの限界を反映した結果であり、センシティブな医療情報については専門家への相談を推奨している"
  • Perplexity: "正確性は当社の中核的な強みだが、100%の正確性を主張するものではない"
  • Microsoft: 公式回答なし

示唆

今回の実験は、AIチャットボットが医療情報の提供者として急速に定着しつつある現実の中で、設計を誤った情報がAIを通じてどれほど速く拡散し得るか を生々しく示している。AIが吐き出す医療情報を無批判に受け入れるのではなく、信頼できる情報源を自ら確認する習慣が、これまで以上に重要になっている。


原文: Nature, 2026.04.07

4件のコメント

 
kalista22 22 일 전

パク・ムンソンのスレクコビッチ事件を思い出す

 
beepp 22 일 전

情報源が権威ある、あるいは信頼できるものかどうかを判断する過程はあるはずですが、それでもやはり脆弱なようですね

 
cjinzy 22 일 전

Anthropic がなぜ抜けているのか気になりますね ''

 
baam12 21 일 전

AIはまだしも、インドの研究チームは読んですらいなかったのか