1 ポイント 投稿者 GN⁺ 2026-01-08 | 1件のコメント | WhatsAppで共有
  • 「健康とウェルネスのために設計された新しいChatGPT」
  • 個人の健康情報とChatGPTの人工知能を安全に接続し、健康状態の理解と管理を支援するサービス
  • 医療情報保護のための暗号化・分離構造を適用し、健康関連の会話はモデル学習に使用されない
  • 電子医療記録(EHR)およびApple Health、MyFitnessPalなどのウェルネスアプリ連携を通じて、パーソナライズされた健康アドバイスを提供
  • 世界中の約260人の医療従事者と協力し、臨床基準に基づく評価体系HealthBenchでモデル品質を検証
  • 医療サービスを代替せず補完し、個人情報保護と信頼性を重視した健康管理ツールとして開発された

ChatGPT Healthの概要

  • ChatGPT Healthは、個人の健康データをChatGPTと安全に接続し、健康状態の理解と体系的な管理を支援するサービス
    • ChatGPTのプライバシー保護・セキュリティ・データ制御の仕組みを基盤に、医療情報保護のための追加措置を適用
    • 健康関連の会話は暗号化および分離構造によって非公開で管理
  • ユーザーは医療記録やウェルネスアプリをChatGPTに接続し、検査結果の解釈、受診準備、食事・運動計画などを行える
  • サービスの目的は医療専門家の診療を補完することであり、診断や治療を代替するものではない

健康情報活用の現状

  • ChatGPTはすでに健康分野で最も多く利用されているサービスの1つで、毎週2億3,000万人以上が健康関連の質問を行っている
  • 健康情報が複数のプラットフォームに分散しているため、ユーザーが全体像を把握しにくいという課題を解決するための取り組み
  • ChatGPT Healthはこの流れを拡張し、ユーザーの文脈を反映した応答を提供

主な機能と連携

  • 電子医療記録(EHR)、Apple Health、Function、MyFitnessPalなどと連携可能
    • 米国ではb.wellネットワークを通じて信頼できる医療データ連携を支援
    • 医療記録へのアクセスは18歳以上のユーザーに限って提供
  • アプリはChatGPT Healthに含まれる前に、セキュリティ審査と最小限のデータ収集要件を満たす必要がある
    • ユーザーはいつでもアプリ連携を解除でき、解除と同時にデータアクセス権は失効する
  • ChatGPT Health内の会話とファイルは、通常チャットとは分離された専用メモリに保存される
    • 外部の会話からはHealthデータにアクセスできない
    • ユーザーはHealthインターフェースまたは設定からデータを確認・削除できる

個人情報保護とセキュリティ

  • ChatGPT Healthは、強化されたプライバシー保護体制を適用した独立スペースとして運用される
    • 会話内容はモデル学習に使用されない
    • 保存時・送信時の両方で暗号化処理を実施
  • OpenAIはChatGPT全体で一時チャット機能30日以内のデータ削除オプションを提供している
  • Healthの会話は、ChatGPTの一般的な会話とは異なり、医療データ専用の暗号化体系隔離構造で管理される

医療従事者との協力と評価体系

  • OpenAIは2年以上にわたり、世界60カ国の約260人の医療従事者と協力
    • 30の重点分野で60万回以上のフィードバックを収集
    • 医療従事者は、ChatGPTの応答がいつ有用で、いつ危険になり得るかを検証
  • この協力の成果はモデル設計と応答方法に反映され、明確性・安全性・診療との連携性を強化
  • モデルはHealthBench評価フレームワークを通じて、臨床基準に基づいて検証される
    • HealthBenchは医療従事者が直接作成した評価基準を基に、実際の診療判断の方法を反映
    • 安全性、明確な伝達、個人の文脈への配慮などを中心に応答品質を測定

利用例とアクセス方法

  • ユーザーはChatGPTのサイドバーでHealthを選択してアクセス
    • ファイルアップロード、アプリ連携、ツール(+)または設定の「アプリ」メニューからデータ接続が可能
  • Healthの会話では、通常のChatGPT機能(検索、音声モード、音声入力など)をそのまま利用できる
    • 例の質問: 「私のコレステロール値はどう変化している?」「受診前に血液検査の結果を要約して」
  • Healthの会話にはユーザー向けカスタム指示を追加し、ChatGPTの応答方法やセンシティブな領域を調整できる
    • カスタム指示はHealthの会話にのみ適用され、いつでも修正・削除可能

提供状況と拡張計画

  • 現在は少数の初期ユーザーに優先提供されており、ウェイトリスト登録で利用可能
  • 今後数週間以内にWebとiOSへ全面拡大予定
  • 電子医療記録連携と一部アプリは米国限定で提供され、Apple Health連携にはiOSが必要
  • OpenAIは今後、データ連携とインサイトの拡張を通じて、ユーザーが自身の健康状態と選択肢をよりよく理解できるよう支援する予定

1件のコメント

 
GN⁺ 2026-01-08
Hacker Newsのコメント
  • 叔父がバランス障害と言語障害に苦しんでいた。医師たちは認知症と診断してそのまま帰したが、症状は徐々に悪化した。そこでChatGPT(またはGemini)に症状を入力し、上位3つの仮説を尋ねたところ、1つ目は認知症関連、2つ目は別の疾患だった。それを持って主治医のところへ行き、残り2つの可能性も検討してほしいと頼んだ結果、最終的に2つ目の仮説が正しかった。手術後に完全に回復した

    • こういう逸話はよく聞く。悪意があるわけではないが、こうした事例が反ワクチン運動のような非合理的な信念を強めるのではないかと心配している。医療界がこうした話に対応しなければ、信頼を失いかねない。誤診がどれほど頻繁に起きるのか、LLMが実際にどれほど役立つのか気になる
    • LLMを使うときは、「どうすればいいか」より「この問題の代替案は何か」を尋ねるほうがはるかに有用だ。上位k件の答えを得れば、より深く掘り下げられる
    • 一般医は問題解決より暗記中心で訓練される。本当の問題解決に長けた医師の多くは専門医だ
    • もしかするとその病気は正常圧水頭症(NPH)だったのではないかと思う。手術は脳脊髄液を排出するVPシャントだったかもしれない。症状である尿失禁、平衡障害、認知機能低下を「Wet, Wobbly, Wacky」で覚える医学的な語呂合わせがある
    • 叔父さんが良くなって本当に良かった。もしよければ、ほかの2つの仮説と最終診断名も共有してもらえるだろうか
  • いとこが精神科医として開業しているのだが、こうしたAI医療ツールが彼の生計を脅かすのではないかと心配している。患者は電話・メール・保険手続きを経なければならないが、AIとは即座に会話できる。薬の処方が必要な場合を除けば、利便性の面で人間の医師が競争するのは難しい。アメリカが人をケアしたいのなら、単一保険制度で医療システムを簡素化すべきだ

  • 医療ソフトウェアを開発した経験があるが、確率的システムを医療に適用するのは危険信号だ。病院向けの薬物相互作用チェッカーは必ず**決定論的(deterministic)**であるべきだ。同じ入力には同じ結果が出なければならず、失敗すれば人命がかかっている

    • しかし医学そのものが本質的に非決定論的だ。薬への反応は患者ごとに異なる。ChatGPTの非決定性も、医師と患者の相互作用という上位レベルで管理されるべきだ。AIは可能性を提示し、医師が検証すべきだ
    • それでも、アメリカの医療費が政府規制のせいで上がり続けている状況では、決定論的なシステムをうまく構築できれば、コスト削減とアクセス向上が可能かもしれない
  • ChatGPTが9か月間、私にADHDがあると仮定していた。実際にはそうではない。いつその情報を得たのか尋ねても、具体的な根拠を示せなかった。最終的には謝罪してその属性を忘れると言ったが、こういうのは集団訴訟ものだと思う

    • おそらく1つのチャット内で**ハルシネーション(hallucination)**としてADHDに言及しただけだろう。ChatGPTはセッション間で記憶をつなげることはできない
    • Redditなどで人々がしばしば自己診断について言及しているため、そうしたデータを学習したのだと思われる
    • こうした事例は健康データのプライバシー問題を浮き彫りにしている。AIがユーザーの病気を推定してデータブローカーに渡せば、その情報は事実として固定化される。私たちには個人データを統制するインフラが不足している
    • 法的にはサービス提供者に責任を負わせるべきだ。人間の医師が誤診すれば病院が責任を負うように、AI診断サービスも同様であるべきだ。ローカルでモデルを動かすなら、利用者が責任を負うべきだ
    • 私の場合、ChatGPTが私の名前で存在しない会社に言及した。個人情報の収集はすべて拒否していたのに、こういうことが起きた。OpenAIのプライバシーポリシーを読んだが、それでも不安だ
  • 80代の母の慢性疾患の原因をChatGPTが5分で見つけた。3年間、複数の医師が見つけられなかった問題だった。医師たちがその可能性を検証し、100%正しかった。もちろんあらゆる病気に適用できるわけではないが、LLMは専門領域をまたぐ統合的思考を可能にする

    • 問題はChatGPTではなく、診療時間の不足だ。他の国では医師が患者に十分な時間を使うが、アメリカではシステムが壊れている
    • もしよければ、その会話ログを共有してもらえないだろうか
    • 高齢患者の場合、こうした治療が繰り返されて医療費の爆発的増加につながるのが現実だ
  • アメリカの医療システムがひどいからこうしたAIが良いと主張する人がいるが、無料医療がうまく機能している国でもこうしたツールは登場する。教育を受けた医師の診療を無料で受けられるとしても、ChatGPTを選ぶ人はいるだろう。結局、**世界の95%**の人々にとってはむしろ有害かもしれない。OpenAIの「自分たちがやらなくても誰かがやる」という理屈は、フェンタニルの売人の言い訳と大差ない

  • 膝と肘の痛みで何十人もの医師に会ったが、ChatGPTのほうがずっと役に立った。AIの言うことをそのまま信じるのは危険だが、検査結果をもとに追加で聞くべき質問や検査の方向性を定めるのには有用だ。コードレビューを任せるのは良いが、コードを全部書かせるのは危険なのと同じだ

  • AIが私のために処方箋を書いたりロボット診療までしてくれるなら別だが、そうでないなら医師がAIの分析を参考にする程度で十分だと思う

  • 自分の健康データへのアクセスはあまり気にしていない。むしろ個人の健康イノベーションに期待している。Apple Healthは単なるデータ収集で、23andMeはあまり役に立たなかった。今は自分の健康履歴をシステムプロンプトに入れたChatGPTプロジェクトを動かしているが、論文ベースの分析と可視化までしてくれて驚いた

    • もしその分析が誤診につながって障害を負った場合、それは利用者の責任なのか医師の責任なのか聞きたい
    • どんな情報を提供したのか気になる。医師に同じ質問をしていたら同じ答えを聞けただろうか。私のように健康不安症がある人には、こうしたツールはむしろ有害かもしれない
    • 実際のところ、医師たちもすでにこっそりAIを使っているのかもしれない
    • それでもそんな生体データをSam Altmanに渡して平気なのか? どんな機器を使ったのか気になる
    • 健康データは最もセンシティブな情報なので規制が厳しい。こうしたデータは権力の非対称性を生み、企業はそれを利用して利益を最大化する
  • 否定的な意見が多いが、私はChatGPTのおかげで健康問題を解決できた

    • 私の知人はChatGPTで希少疾患を自己診断し、高価な検査まで受けたが、結局は誤診だった。それでもなお信頼している。医師の何年にもわたる教育と経験を単なる検索と同一視する態度は危険だ
    • 私も腰痛に苦しんでいたが、ChatGPTが**腰方形筋(quadratus lumborum)**の問題を教えてくれて大いに助かった
    • 医療界には心気症の患者が多い。LLMはうまく使えば有用だが、確証バイアスを強めることもある。医師は耳の痛いことも言ってくれる存在だ。結局AIは道具にすぎず、医師と一緒に使うべきだ。コロナ禍の時期にはおかしな情報も多かったが、今はずっと良くなっている。私はChatGPTで情報を整理し、医師に全体像を提供する形で使っている
    • 私もChatGPTを使うが、行動に移せる助言は必ず信頼できる情報源で検証する。常識的に判断できなければならない。AIが間抜けな助言をしても、結局判断は人間の役目