- 「健康とウェルネスのために設計された新しいChatGPT」
- 個人の健康情報とChatGPTの人工知能を安全に接続し、健康状態の理解と管理を支援するサービス
- 医療情報保護のための暗号化・分離構造を適用し、健康関連の会話はモデル学習に使用されない
- 電子医療記録(EHR)およびApple Health、MyFitnessPalなどのウェルネスアプリ連携を通じて、パーソナライズされた健康アドバイスを提供
- 世界中の約260人の医療従事者と協力し、臨床基準に基づく評価体系HealthBenchでモデル品質を検証
- 医療サービスを代替せず補完し、個人情報保護と信頼性を重視した健康管理ツールとして開発された
ChatGPT Healthの概要
- ChatGPT Healthは、個人の健康データをChatGPTと安全に接続し、健康状態の理解と体系的な管理を支援するサービス
- ChatGPTのプライバシー保護・セキュリティ・データ制御の仕組みを基盤に、医療情報保護のための追加措置を適用
- 健康関連の会話は暗号化および分離構造によって非公開で管理
- ユーザーは医療記録やウェルネスアプリをChatGPTに接続し、検査結果の解釈、受診準備、食事・運動計画などを行える
- サービスの目的は医療専門家の診療を補完することであり、診断や治療を代替するものではない
健康情報活用の現状
- ChatGPTはすでに健康分野で最も多く利用されているサービスの1つで、毎週2億3,000万人以上が健康関連の質問を行っている
- 健康情報が複数のプラットフォームに分散しているため、ユーザーが全体像を把握しにくいという課題を解決するための取り組み
- ChatGPT Healthはこの流れを拡張し、ユーザーの文脈を反映した応答を提供
主な機能と連携
- 電子医療記録(EHR)、Apple Health、Function、MyFitnessPalなどと連携可能
- 米国ではb.wellネットワークを通じて信頼できる医療データ連携を支援
- 医療記録へのアクセスは18歳以上のユーザーに限って提供
- アプリはChatGPT Healthに含まれる前に、セキュリティ審査と最小限のデータ収集要件を満たす必要がある
- ユーザーはいつでもアプリ連携を解除でき、解除と同時にデータアクセス権は失効する
- ChatGPT Health内の会話とファイルは、通常チャットとは分離された専用メモリに保存される
- 外部の会話からはHealthデータにアクセスできない
- ユーザーはHealthインターフェースまたは設定からデータを確認・削除できる
個人情報保護とセキュリティ
- ChatGPT Healthは、強化されたプライバシー保護体制を適用した独立スペースとして運用される
- 会話内容はモデル学習に使用されない
- 保存時・送信時の両方で暗号化処理を実施
- OpenAIはChatGPT全体で一時チャット機能と30日以内のデータ削除オプションを提供している
- Healthの会話は、ChatGPTの一般的な会話とは異なり、医療データ専用の暗号化体系と隔離構造で管理される
医療従事者との協力と評価体系
- OpenAIは2年以上にわたり、世界60カ国の約260人の医療従事者と協力
- 30の重点分野で60万回以上のフィードバックを収集
- 医療従事者は、ChatGPTの応答がいつ有用で、いつ危険になり得るかを検証
- この協力の成果はモデル設計と応答方法に反映され、明確性・安全性・診療との連携性を強化
- モデルはHealthBench評価フレームワークを通じて、臨床基準に基づいて検証される
- HealthBenchは医療従事者が直接作成した評価基準を基に、実際の診療判断の方法を反映
- 安全性、明確な伝達、個人の文脈への配慮などを中心に応答品質を測定
利用例とアクセス方法
- ユーザーはChatGPTのサイドバーでHealthを選択してアクセス
- ファイルアップロード、アプリ連携、ツール(+)または設定の「アプリ」メニューからデータ接続が可能
- Healthの会話では、通常のChatGPT機能(検索、音声モード、音声入力など)をそのまま利用できる
- 例の質問: 「私のコレステロール値はどう変化している?」「受診前に血液検査の結果を要約して」
- Healthの会話にはユーザー向けカスタム指示を追加し、ChatGPTの応答方法やセンシティブな領域を調整できる
- カスタム指示はHealthの会話にのみ適用され、いつでも修正・削除可能
提供状況と拡張計画
- 現在は少数の初期ユーザーに優先提供されており、ウェイトリスト登録で利用可能
- 今後数週間以内にWebとiOSへ全面拡大予定
- 電子医療記録連携と一部アプリは米国限定で提供され、Apple Health連携にはiOSが必要
- OpenAIは今後、データ連携とインサイトの拡張を通じて、ユーザーが自身の健康状態と選択肢をよりよく理解できるよう支援する予定
1件のコメント
Hacker Newsのコメント
叔父がバランス障害と言語障害に苦しんでいた。医師たちは認知症と診断してそのまま帰したが、症状は徐々に悪化した。そこでChatGPT(またはGemini)に症状を入力し、上位3つの仮説を尋ねたところ、1つ目は認知症関連、2つ目は別の疾患だった。それを持って主治医のところへ行き、残り2つの可能性も検討してほしいと頼んだ結果、最終的に2つ目の仮説が正しかった。手術後に完全に回復した
いとこが精神科医として開業しているのだが、こうしたAI医療ツールが彼の生計を脅かすのではないかと心配している。患者は電話・メール・保険手続きを経なければならないが、AIとは即座に会話できる。薬の処方が必要な場合を除けば、利便性の面で人間の医師が競争するのは難しい。アメリカが人をケアしたいのなら、単一保険制度で医療システムを簡素化すべきだ
医療ソフトウェアを開発した経験があるが、確率的システムを医療に適用するのは危険信号だ。病院向けの薬物相互作用チェッカーは必ず**決定論的(deterministic)**であるべきだ。同じ入力には同じ結果が出なければならず、失敗すれば人命がかかっている
ChatGPTが9か月間、私にADHDがあると仮定していた。実際にはそうではない。いつその情報を得たのか尋ねても、具体的な根拠を示せなかった。最終的には謝罪してその属性を忘れると言ったが、こういうのは集団訴訟ものだと思う
80代の母の慢性疾患の原因をChatGPTが5分で見つけた。3年間、複数の医師が見つけられなかった問題だった。医師たちがその可能性を検証し、100%正しかった。もちろんあらゆる病気に適用できるわけではないが、LLMは専門領域をまたぐ統合的思考を可能にする
アメリカの医療システムがひどいからこうしたAIが良いと主張する人がいるが、無料医療がうまく機能している国でもこうしたツールは登場する。教育を受けた医師の診療を無料で受けられるとしても、ChatGPTを選ぶ人はいるだろう。結局、**世界の95%**の人々にとってはむしろ有害かもしれない。OpenAIの「自分たちがやらなくても誰かがやる」という理屈は、フェンタニルの売人の言い訳と大差ない
膝と肘の痛みで何十人もの医師に会ったが、ChatGPTのほうがずっと役に立った。AIの言うことをそのまま信じるのは危険だが、検査結果をもとに追加で聞くべき質問や検査の方向性を定めるのには有用だ。コードレビューを任せるのは良いが、コードを全部書かせるのは危険なのと同じだ
AIが私のために処方箋を書いたりロボット診療までしてくれるなら別だが、そうでないなら医師がAIの分析を参考にする程度で十分だと思う
自分の健康データへのアクセスはあまり気にしていない。むしろ個人の健康イノベーションに期待している。Apple Healthは単なるデータ収集で、23andMeはあまり役に立たなかった。今は自分の健康履歴をシステムプロンプトに入れたChatGPTプロジェクトを動かしているが、論文ベースの分析と可視化までしてくれて驚いた
否定的な意見が多いが、私はChatGPTのおかげで健康問題を解決できた