- 2017年に発表された CheXNet などのAIモデル は、肺炎診断で人間の放射線科医を上回る精度を示したが、実際の医療現場ではその成果を再現できていない
- 近年、数百の 放射線AIモデル がFDAの承認を受けているにもかかわらず、米国内の放射線科医の求人と給与はむしろ過去最高を記録している
- 医療AIの限界 として、データ不足、実環境との差、規制や保険上の障壁、そして人間の放射線科医が診断以外にも多様な役割を担う構造が原因となっている
- 完全自動化ではなく、人間とAIが並行して機能する体制 が医療業界の標準となっており、AIが進歩しても放射線科医の需要は減っていない
- 医療AI普及 の最初の10年は、AI技術が生産性向上の可能性を持ちながら、実際にはより多くの人間の労働需要を生み出すという逆説を示している
序論: AIの導入と期待
- 2017年に登場したCheXNetのようなAIモデルは、10万件を超える胸部X線データを学習し、肺炎読影の精度で人間の専門医より優れた結果を示した
- Annalise.ai、Lunit、Aidoc、Qure.ai など複数の企業が、数百の疾患を検出できるAIシステムを投入しており、病院の記録システムへの統合も可能である
- 700件を超えるFDA承認の放射線AIモデルが存在し、これは医療AI機器全体の75%に相当する
- 放射線科は デジタル入力、パターン認識、そして明確な成果測定が可能であるため、AIによる代替に最も適した分野と評価されてきた
- しかし実際には、放射線科専門医の養成需要は過去最高に達しており、賃金も2015年比で48%上昇するなど、人間の労働力需要は増加している
AI放射線診断システムの限界
実環境と学習データの違い
- 放射線AIモデルは、標準化されたデータや特定条件では優れた性能を示す一方、現実の病院環境では 病院ごとのデータ差、診断機器の特性、多様性の不足 などにより性能が低下する
- ほとんどのモデルは、特定疾患や単一の画像タイプでのみ高精度を示し、多様なケースでは複数のモデルを切り替えて適用しなければならない不便さがある
- FDA承認を受けたアルゴリズムであっても、実際の画像読影業務の一部しか扱わず、主に脳卒中、乳がん、肺がんなど少数の重要疾患に集中している
- 小児、女性、少数人種のデータが不足している点や、疾患が微妙に現れる場合、あるいは他疾患と混在している場合には予測性能が落ちるという問題もある
ベンチマークと臨床適用の隔たり
- ベンチマーク試験ではAIが高い定量指標を記録するが、実際の臨床環境では人間の放射線科医と補助システムが期待ほど良い結果を出せていない
- 例えば乳房撮影の分野では、補助AIシステムは読影感度を高めたものの、不必要な追加検査や生検の割合を増やしただけで、がん発見率は向上させられなかった
- 1人または2人の人間の読影者が共同で読む「二重読影」は、AI補助よりもがん検出力が高く、不必要な再検率もより低い結果を示した
法的・制度的規制が自動化の速度を制限
- FDAは放射線ソフトウェアを「補助/分類ツール」と「完全自動化ツール」に区分している
- 完全自動化はまれであり、IDx-DRのように一部の特殊条件でのみ適用される
- AIが読影しにくい画像は、ソフトウェアが自動的に処理を中断し、医療従事者へ渡さなければならない
- 規制要件は厳しく、モデルを再学習・変更するたびに新たな承認が必要となる
- 保険会社は、自動化ツールがミスをした場合の集団被害の確率が高いとみており、AIだけで診断した結果に対しては保険償還に消極的な傾向がある
- 法律上、医師が直接解釈し署名した読影のみが保険適用となるケースが標準である
人間の放射線科医の役割変化
- 実際には、放射線科医は時間の36%しか画像解釈に使っておらず、残りは患者や同僚との相談、検査監督、教育、処方変更など多様な業務に充てている
- 画像読影時間が減っても不要な解雇は起きず、むしろ新たな業務が増え、全体の画像読影量そのものが増加する現象が起きている
- 例えばフィルムベースからデジタルへ移行した際も、画像読影の生産性は大きく向上したが医療スタッフの削減はなく、むしろ全体の画像検査は60%以上増えた
- 画像処理速度の向上は、検査待ち時間の短縮、緊急時対応力の向上など、医療システム内での活用の多様化につながっている
今後の展望: AI普及の最初の10年の教訓
- 過去10年間、日常診療への導入はAIモデルの技術水準よりはるかに遅いペースで進んでいる
- 規制、保険、患者相談、医師の主体性といった 非技術的要因 が完全代替の障壁として作用している
- AIは人員代替よりも、人間との 協業による生産性強化 に貢献する形が基本モデルとなっている
- 大規模プラットフォーム(例: Facebook)ではAIによる自動化可能性が高い一方、知識労働の仕事が多様な業務で構成されるほど、ソフトウェア導入は人間の労働量を減らすより増やす傾向がある
- 放射線分野での経験は、AIが人間の業務を即座に代替するのではなく、むしろ社会・制度・行動の変化とともに人間の労働需要を維持または拡大させるという逆説的な結果を示している
1件のコメント
Hacker Newsの意見
私はインターベンショナル放射線科医で、かつコンピュータサイエンスの修士号も持っている。放射線科以外の分野の人には、なぜAIがまだ放射線科を置き換えていないのか理解しにくいと思うので説明すると、AIが画像診断を人間の放射線科医よりうまくできるかという問いへの答えは、ほぼ「はい」か、近いうちにそうなる、だ。しかし放射線科が置き換えられるかという問いへの答えは、ほぼ「いいえ」だ。その理由は医療訴訟上のリスクにある。現行法が変わらない限り、放射線科医がすべてのレポートに最終署名しなければならない。だからAIが画像を主に読影して完璧なレポートを書いたとしても、結局は放射線科医の最終確認がボトルネックになる。現在、放射線科医は1日に最低でも60〜100件の各種検査を高速で読んでおり、これは人間が処理できる限界に近い。AIがすべてのレポートを代筆してくれても、それら全部を確認して署名しなければならず、時間差はほとんどない。もちろん、署名ボタンだけ押す無責任な医師が一人くらいはいるかもしれないが、それを相手取って訴訟を起こそうとする弁護士もいるだろう
2016年にテスラが「運転手は法的理由で座っているだけで何もしない。車が自分で運転する」として完全自動運転のデモ映像を公開したとき、トラック業界は永遠に変わると思い、この業界への参入を考え直した。しかし2025年が目前なのに、ほとんどの変化は遅いか、ほぼ起きていない。技術が世界を大きく変えるという楽観論は広くあるが、実際には変化が非常に遅かったり停滞したりする場合が多い
機械学習と放射線学に関する最高の逸話は、みんながCOVID感染者の肺X線画像をAIで判別しようと競っていた頃のものだ。ある研究グループはかなり良い判別成績を出したが、後になって、データセット内の各病院で異なる画像ウォーターマークのフォントの違いをAIが学習しており、COVID感染の有無ではなく「フォント」を区別していたことが判明した。参考論文: Nature Machine Intelligence論文 検索語: “AI for radiographic COVID-19 detection selects shortcuts over signal” オープンアクセス版の論文も見つかるはずだ
記事の要点はこの3つだ。1) モデルにより多くの作業を任せようとすると法的規制にぶつかる 2) 規制当局や保険会社が自律モデルを承認・償還しない 3) 放射線科医の業務において診断が占める割合は小さく、患者や医療スタッフとのコミュニケーションなど他の業務が大半を占める。機械学習モデルが完全に無料で診断しても、放射線科医がすぐに「代替」されない構造になっている
今日だけでも、ある女性患者をコア生検のために放射線科へ紹介し、男性患者を腰椎注射へ、別の患者を肩関節注射へ、1か月前には別の女性患者を子宮内膜症の塞栓術へ紹介した。今後は腎摘後の尿漏れに対する塞栓術も依頼する予定だ。こうした処置をLLMにできるだろうか。AIがあるスキルを一般化してしまえば、専門家集団は別のスキルへ移行し、コモディティ化した仕事は手放すようになる。たとえばECG読影が機器で自動化されて以降、報酬は急減し、私も意図的にそのスキルから距離を置いて脳や運動障害の診療に集中している。そのため、患者にECG解釈が必要なら単に循環器内科へ回し、さまざまな追加検査を依頼することになる。患者にも医療システムにも追加のコストと時間がかかるが、仕方がない。将来的には「医療砂漠」のように、AI専門家が働きたがらない分野が出てくるかもしれない。特に高齢者、地方、精神科のような領域で
2016年にGeoffrey Hinton教授が「もう放射線科の教育はやめるべきだ」と言った。もしAI支持者の主張だけを信じていたら、世界はとっくに崩壊していただろう
私は医師でありフルスタックエンジニアでもあるので、放射線科や追加研修には進みたくない。AIはまず放射線科を強化し、その後で一部の職種を置き換え始めるだろう。既存の放射線科医はインターベンショナル放射線科などの新しい領域へ自然に移っていくはずだ
今年5月にはニューヨーク・タイムズも「AIは放射線科医を置き換えない」という似た記事を出していた NYT記事を見る 医師とヒントンの発言が興味深い。「AIは補助し、定量化するが、技術の解釈的結論までは担わないだろう」「5年後にはAIを使わないことの方が医療過誤になるだろう」「だが結局は人間とAIが一緒に進むことになる」 ヒントンも、過度に一般化して話したこと、画像解釈のことだけを言っていたこと、方向性は正しかったが時期予測は間違っていたことを、後にメールで認めている
放射線科のAIトランスフォーメーションを義務化すべきだ。放射線科は毎日一定割合以上AIを使い、生産性を2倍にしなければならず、そうでなければ解雇されるべきだ。CEOたちの言う通り、AIは私たちがこれまで見た中で最も革新的な技術なのだから、不安があっても必ず受け入れなければならない。それ以外は認められない
私は放射線科ではない医師にAI読影結果の解釈を任せるのは信用できない。たとえAIがベンチマークで優秀でも、自分で分析する背景知識がなければ、20ページの論文を読んで信頼できるかどうか判断できないのと同じだ