4 ポイント 投稿者 GN⁺ 2025-09-27 | 1件のコメント | WhatsAppで共有
  • 2017年に発表された CheXNet などのAIモデル は、肺炎診断で人間の放射線科医を上回る精度を示したが、実際の医療現場ではその成果を再現できていない
  • 近年、数百の 放射線AIモデル がFDAの承認を受けているにもかかわらず、米国内の放射線科医の求人と給与はむしろ過去最高を記録している
  • 医療AIの限界 として、データ不足、実環境との差、規制や保険上の障壁、そして人間の放射線科医が診断以外にも多様な役割を担う構造が原因となっている
  • 完全自動化ではなく、人間とAIが並行して機能する体制 が医療業界の標準となっており、AIが進歩しても放射線科医の需要は減っていない
  • 医療AI普及 の最初の10年は、AI技術が生産性向上の可能性を持ちながら、実際にはより多くの人間の労働需要を生み出すという逆説を示している

序論: AIの導入と期待

  • 2017年に登場したCheXNetのようなAIモデルは、10万件を超える胸部X線データを学習し、肺炎読影の精度で人間の専門医より優れた結果を示した
  • Annalise.ai、Lunit、Aidoc、Qure.ai など複数の企業が、数百の疾患を検出できるAIシステムを投入しており、病院の記録システムへの統合も可能である
  • 700件を超えるFDA承認の放射線AIモデルが存在し、これは医療AI機器全体の75%に相当する
  • 放射線科は デジタル入力パターン認識、そして明確な成果測定が可能であるため、AIによる代替に最も適した分野と評価されてきた
  • しかし実際には、放射線科専門医の養成需要は過去最高に達しており、賃金も2015年比で48%上昇するなど、人間の労働力需要は増加している

AI放射線診断システムの限界

実環境と学習データの違い

  • 放射線AIモデルは、標準化されたデータや特定条件では優れた性能を示す一方、現実の病院環境では 病院ごとのデータ差、診断機器の特性、多様性の不足 などにより性能が低下する
  • ほとんどのモデルは、特定疾患や単一の画像タイプでのみ高精度を示し、多様なケースでは複数のモデルを切り替えて適用しなければならない不便さがある
  • FDA承認を受けたアルゴリズムであっても、実際の画像読影業務の一部しか扱わず、主に脳卒中、乳がん、肺がんなど少数の重要疾患に集中している
  • 小児、女性、少数人種のデータが不足している点や、疾患が微妙に現れる場合、あるいは他疾患と混在している場合には予測性能が落ちるという問題もある

ベンチマークと臨床適用の隔たり

  • ベンチマーク試験ではAIが高い定量指標を記録するが、実際の臨床環境では人間の放射線科医と補助システムが期待ほど良い結果を出せていない
  • 例えば乳房撮影の分野では、補助AIシステムは読影感度を高めたものの、不必要な追加検査や生検の割合を増やしただけで、がん発見率は向上させられなかった
  • 1人または2人の人間の読影者が共同で読む「二重読影」は、AI補助よりもがん検出力が高く、不必要な再検率もより低い結果を示した

法的・制度的規制が自動化の速度を制限

  • FDAは放射線ソフトウェアを「補助/分類ツール」と「完全自動化ツール」に区分している
    • 完全自動化はまれであり、IDx-DRのように一部の特殊条件でのみ適用される
    • AIが読影しにくい画像は、ソフトウェアが自動的に処理を中断し、医療従事者へ渡さなければならない
  • 規制要件は厳しく、モデルを再学習・変更するたびに新たな承認が必要となる
  • 保険会社は、自動化ツールがミスをした場合の集団被害の確率が高いとみており、AIだけで診断した結果に対しては保険償還に消極的な傾向がある
  • 法律上、医師が直接解釈し署名した読影のみが保険適用となるケースが標準である

人間の放射線科医の役割変化

  • 実際には、放射線科医は時間の36%しか画像解釈に使っておらず、残りは患者や同僚との相談、検査監督、教育、処方変更など多様な業務に充てている
  • 画像読影時間が減っても不要な解雇は起きず、むしろ新たな業務が増え、全体の画像読影量そのものが増加する現象が起きている
    • 例えばフィルムベースからデジタルへ移行した際も、画像読影の生産性は大きく向上したが医療スタッフの削減はなく、むしろ全体の画像検査は60%以上増えた
  • 画像処理速度の向上は、検査待ち時間の短縮、緊急時対応力の向上など、医療システム内での活用の多様化につながっている

今後の展望: AI普及の最初の10年の教訓

  • 過去10年間、日常診療への導入はAIモデルの技術水準よりはるかに遅いペースで進んでいる
  • 規制、保険、患者相談、医師の主体性といった 非技術的要因 が完全代替の障壁として作用している
  • AIは人員代替よりも、人間との 協業による生産性強化 に貢献する形が基本モデルとなっている
  • 大規模プラットフォーム(例: Facebook)ではAIによる自動化可能性が高い一方、知識労働の仕事が多様な業務で構成されるほど、ソフトウェア導入は人間の労働量を減らすより増やす傾向がある
  • 放射線分野での経験は、AIが人間の業務を即座に代替するのではなく、むしろ社会・制度・行動の変化とともに人間の労働需要を維持または拡大させるという逆説的な結果を示している

1件のコメント

 
GN⁺ 2025-09-27
Hacker Newsの意見
  • 私はインターベンショナル放射線科医で、かつコンピュータサイエンスの修士号も持っている。放射線科以外の分野の人には、なぜAIがまだ放射線科を置き換えていないのか理解しにくいと思うので説明すると、AIが画像診断を人間の放射線科医よりうまくできるかという問いへの答えは、ほぼ「はい」か、近いうちにそうなる、だ。しかし放射線科が置き換えられるかという問いへの答えは、ほぼ「いいえ」だ。その理由は医療訴訟上のリスクにある。現行法が変わらない限り、放射線科医がすべてのレポートに最終署名しなければならない。だからAIが画像を主に読影して完璧なレポートを書いたとしても、結局は放射線科医の最終確認がボトルネックになる。現在、放射線科医は1日に最低でも60〜100件の各種検査を高速で読んでおり、これは人間が処理できる限界に近い。AIがすべてのレポートを代筆してくれても、それら全部を確認して署名しなければならず、時間差はほとんどない。もちろん、署名ボタンだけ押す無責任な医師が一人くらいはいるかもしれないが、それを相手取って訴訟を起こそうとする弁護士もいるだろう

    • それは、自動運転車は運転席に「責任を負う」人間が必要だから絶対に実用化しない、という主張に少し似ている。すでにFDAが、医師の確認なしで動作することを承認したAIシステムもある点で現実とは異なる
    • AIが人間の放射線科医より優れていた場合に何が起こるかについては、放射線科医が一日中ただ「承認、承認」とクリックするだけになったり、AIの結果に異議を唱えても結局AIが正しかったと証明される状況を想像できる。こうしたことが医療界の常識になれば、病院はコスト削減のために法改正を求めてロビー活動を行い、最終的には人間の放射線科医なしで運営するようになるだろう
    • 99.9%の精度を99.95%まで上げるために、6,000ドルも払いたくない患者もいるだろう
    • 私は臨床経験20年以上の診断放射線科医で、1979年からプログラミングもしている。あなたの中心的な前提の一つに異議を唱えたい。「AIはすでに画像読影で人間より優れているか、近いうちにそうなるだろう」という部分には同意しない。最新のAI製品を使い、情報も追っているが、そのどれ一つとして実臨床の読影で使い物になるレベルに近づいていない。データの限界と、人間の解剖学や病理学的変化の無限の多様性のため、真のAGIが登場しない限り、人間の放射線科医の直感的・分析的・統合的思考を置き換えることはできないだろう。毎日、新しいパターンやこれまで見たことのない症例に出会うし、データに落とし込めないケースも多い。私はキャリアの終盤にいるので、自分の立場を守りたいわけではない。本当に優れた代替技術が出てきたなら喜んでマイクを置きたいが、まだその段階にはまったく達していないと思う
    • 放射線科の外からは、なぜAIがまだ定着していないのか理解しにくい点がある。実際、AIが放射線科を完全に置き換えることはないだろう。むしろAIは放射線科医と協働して、忙しい業務と限られた人員の問題を補うべきだ。循環器の例で言えば、心臓病学も依然として専門医の比率が非常に低い。ECG読影は難しく反復的な作業なので、多くの国ではホルターECGもほぼ全面的に自動解析へ移行しつつある。しかしAI/MLの読影精度があまりにも低いため、感度を100%近くまで引き上げて初めて循環器医との協働が可能になる。だから自動化は「代替」ではなく「補助」として定着すべきだ。循環器医は、むしろ将来世代の教育や処置、研究、休息などに時間を使いたい。例としてPan–Tompkinsアルゴリズム参照: Pan–Tompkinsアルゴリズム Wiki
  • 2016年にテスラが「運転手は法的理由で座っているだけで何もしない。車が自分で運転する」として完全自動運転のデモ映像を公開したとき、トラック業界は永遠に変わると思い、この業界への参入を考え直した。しかし2025年が目前なのに、ほとんどの変化は遅いか、ほぼ起きていない。技術が世界を大きく変えるという楽観論は広くあるが、実際には変化が非常に遅かったり停滞したりする場合が多い

    • 私はロボタクシーではなくWaymoに注目している。Waymoは私が子どもの頃に思い描いていた本物の自動運転ビジョンを実現しつつあり、顧客数も指数関数的に増えている。Waymoの安全性統計を信じるなら、本当に安全なサービスだ。技術の進歩は短期的には過大評価され、長期的には過小評価されるという格言がふさわしいと思う。放射線科の話は確かに別のケースだが… Waymoの安全性参照: Waymoの安全性とインパクト
    • テスラの映像に騙されたと感じる必要はない。その映像は演出されたものだと判明しているからだ。関連記事: Reuters – テスラの自動運転宣伝映像は演出されたもの 私はこの1年ほどWaymoに乗っているが、とても満足している。技術がもっと早く普及してほしいとは思うが、予想外のエッジケースに時間がかかっているだけで、不可能な挑戦だとは思わない
    • 機械学習はもともと98%のケースでは優秀だったが、私たちは残りの2%も簡単に解決できると勘違いしていた
    • 過度に楽観的な技術はたいていデモが非常に印象的だが、1万個の致命的な例外状況がある。自動運転と放射線読影がその代表だ。例外ケースが少ないほど、その技術はむしろ予想以上にうまく機能する。例: TikTokの推薦、Shazam
    • ほとんどの列車がいまだに人間によって運転されていることに本当に驚く
  • 機械学習と放射線学に関する最高の逸話は、みんながCOVID感染者の肺X線画像をAIで判別しようと競っていた頃のものだ。ある研究グループはかなり良い判別成績を出したが、後になって、データセット内の各病院で異なる画像ウォーターマークのフォントの違いをAIが学習しており、COVID感染の有無ではなく「フォント」を区別していたことが判明した。参考論文: Nature Machine Intelligence論文 検索語: “AI for radiographic COVID-19 detection selects shortcuts over signal” オープンアクセス版の論文も見つかるはずだ

    • 咳の音でCOVID感染を判別しようとする機械学習の試みも見たことがある。ある種の呼吸器疾患患者とCOVID患者の咳の音に本当に統計的に有意な差があるなら、人間の聞き手でも簡単に区別できたはずで、なぜうまくいくと信じたのか理解できなかった
    • こうした逸話は教訓的ではあるが、実際にはアルゴリズムそのものの限界というより、誤ったデータと杜撰な学習による事例だ。データと手法をきちんと整えれば、技術的に放射線科医を置き換えることは難しいことではない。制約となる一般原理や明白な限界がない限り、ビジョンモデルはこの種の仕事にあまりにも適しているからだ
  • 記事の要点はこの3つだ。1) モデルにより多くの作業を任せようとすると法的規制にぶつかる 2) 規制当局や保険会社が自律モデルを承認・償還しない 3) 放射線科医の業務において診断が占める割合は小さく、患者や医療スタッフとのコミュニケーションなど他の業務が大半を占める。機械学習モデルが完全に無料で診断しても、放射線科医がすぐに「代替」されない構造になっている

    • 「放射線科医は診断よりも患者や同僚とのコミュニケーションに大半の時間を使っている」という主張には同意できない。大多数の放射線科医は出勤して検査画像をひたすら読み、結果を吹き込み、退勤する。もし完璧なAIが現れたなら、この職業自体が無意味になる。まるでCCTVだけを見続ける仕事のようなものだ
    • 完璧なAIがあるなら、放射線科医は不要だ。現状は主治医→放射線技師→放射線科医(読影)→主治医という流れだが、完璧なAIがあれば放射線技師→MLモデル→主治医へと流れが変わるだろう
    • X線を撮るたびに放射線科医と話したことがない。たいてい画像を撮る技師が機械を操作し、診断は遠隔の放射線科医が別に作成している。そして私が直接会う他の医師たちも、放射線科医と直接やり取りしていないように見える。アメリカ全土でこんな構造なのか気になる
    • 患者とのコミュニケーションが放射線科の重要業務だという主張には疑問がある。私が経験したすべての放射線検査では、放射線科医とのコミュニケーションはまったくなかった。患者と顔を合わせることはあまりなく、同僚医療スタッフとのやり取りもたいてい放射線技師で足りる。こうしたコミュニケーションに専門医が必要だという理由は弱い。AIが読影するなら、コミュニケーションの役割は看護師や放射線技師に移るかもしれない
  • 今日だけでも、ある女性患者をコア生検のために放射線科へ紹介し、男性患者を腰椎注射へ、別の患者を肩関節注射へ、1か月前には別の女性患者を子宮内膜症の塞栓術へ紹介した。今後は腎摘後の尿漏れに対する塞栓術も依頼する予定だ。こうした処置をLLMにできるだろうか。AIがあるスキルを一般化してしまえば、専門家集団は別のスキルへ移行し、コモディティ化した仕事は手放すようになる。たとえばECG読影が機器で自動化されて以降、報酬は急減し、私も意図的にそのスキルから距離を置いて脳や運動障害の診療に集中している。そのため、患者にECG解釈が必要なら単に循環器内科へ回し、さまざまな追加検査を依頼することになる。患者にも医療システムにも追加のコストと時間がかかるが、仕方がない。将来的には「医療砂漠」のように、AI専門家が働きたがらない分野が出てくるかもしれない。特に高齢者、地方、精神科のような領域で

    • 医療システムの目的は医師の高収入を保証することではなく、患者を治療することだ。可能なものは自動化し、アクセスを広げるべきだ。ECGの自動化もアクセス拡大につながる
    • インターベンショナル放射線科は単なる読影の放射線科とは異なり、はるかに多くの訓練が必要だ
    • 自動ECG解釈器はあまりに字義どおりで感度の低い結果しか出さず、救急現場ではまったく役に立たないことも多い。機械が「ABNORMAL ECG – EVALUATION NEEDED」と繰り返すだけなら、本当に使えるツールが欲しくなる
  • 2016年にGeoffrey Hinton教授が「もう放射線科の教育はやめるべきだ」と言った。もしAI支持者の主張だけを信じていたら、世界はとっくに崩壊していただろう

    • この発言はよく持ち出されるが、ヒントンは放射線科医が診断だけをしているわけではない現実を理解していない状態で、思いつきで言った話だ。ヒントンは真のAI“信者”というより、むしろAI悲観論者に近い
    • たとえば2016年に研修を始めたなら、5年後の2021年に修了して31歳前後だろう。医師として約30年は働くのだから、カレンダー上では2050年代までを見通すには十分な時間がある。25年後なら、ヒントンの言葉も50%くらいは当たっているかもしれない
    • もし医療規制を緩和し、AMAを解体していたなら、今ごろヒントンの予言は当たっていたかもしれない。そして皆の生活はより良くなっていた可能性もある
    • AIが放射線科を置き換える最大の障壁は法律だ。何年も教育を受けた職業が規制にだけ支えられて存在しているなら、法律が変わるだけで吹き飛ぶ危うい選択だ
    • 未来予測は本当に難しい。20年後の世界など誰にもわからない
  • 私は医師でありフルスタックエンジニアでもあるので、放射線科や追加研修には進みたくない。AIはまず放射線科を強化し、その後で一部の職種を置き換え始めるだろう。既存の放射線科医はインターベンショナル放射線科などの新しい領域へ自然に移っていくはずだ

    • 私は放射線科医でありフルスタックエンジニアでもあるが、この職業が消えることは心配していない。変化はするだろうが、他の職種と似た道筋をたどるだろう
    • 私も元医学生として同意する。私の歯科医のAIはすでにインプラントなど、まったく新しい口腔モデルまで設計してくれて、最終仕上げだけを人間が整えている。多くの医療職は結局、保険と法的責任だけを担う形になるかもしれないと思う。米国のレジデンシーの30%が外国人で埋まっているという点も興味深い
    • 医師+エンジニアの組み合わせは本当に珍しいが、すでに私の周囲にもいる。こうした視点は医療界に本当に必要で、とても独特な強みだ。ネオとモーフィアスのような存在だと思う
    • 医師+エンジニアなら、むしろ放射線科に大きな未来がある。職業が消えることはないだろうし、むしろ医学と技術の両方をつなぐ人材が必要になる
    • 薬剤師の未来をどう見ているのか気になる。私には完全に自動化されそうに見えるが、人間の判断が実際にどんな違いを生むのかよくわからない
  • 今年5月にはニューヨーク・タイムズも「AIは放射線科医を置き換えない」という似た記事を出していた NYT記事を見る 医師とヒントンの発言が興味深い。「AIは補助し、定量化するが、技術の解釈的結論までは担わないだろう」「5年後にはAIを使わないことの方が医療過誤になるだろう」「だが結局は人間とAIが一緒に進むことになる」 ヒントンも、過度に一般化して話したこと、画像解釈のことだけを言っていたこと、方向性は正しかったが時期予測は間違っていたことを、後にメールで認めている

  • 放射線科のAIトランスフォーメーションを義務化すべきだ。放射線科は毎日一定割合以上AIを使い、生産性を2倍にしなければならず、そうでなければ解雇されるべきだ。CEOたちの言う通り、AIは私たちがこれまで見た中で最も革新的な技術なのだから、不安があっても必ず受け入れなければならない。それ以外は認められない

    • これが本気なのか風刺なのか、もう区別がつかない
  • 私は放射線科ではない医師にAI読影結果の解釈を任せるのは信用できない。たとえAIがベンチマークで優秀でも、自分で分析する背景知識がなければ、20ページの論文を読んで信頼できるかどうか判断できないのと同じだ

    • 「PhDレベルの研究」という概念自体があまりに曖昧だ。プレプリント、学会ポスター、進行中の共著論文、査読前論文、単行本など、各段階で質は大きく異なる
    • そういうときは、別のディープラーニング研究モデルに批評させてみたらどうか、という冗談もある