- OpenAIは最近、GPT-4oのアップデートをロールバックし、ユーザーは現在、よりバランスの取れた以前のバージョンを利用中
- 原因は、モデルが過度に追従的・おべっか的な傾向(sycophantic)を示したためで、これが不快で居心地の悪い対話につながった
- 問題は、短期的なフィードバックに過度に集中した学習方法に起因しており、長期的なユーザー満足度や文脈の変化を十分に反映できていなかった
- OpenAIは、改善されたフィードバック収集・反映方法、パーソナライズの選択肢拡大、性格選択機能の導入などを通じて問題解決を図っている
- 今後も、より正直で透明性の高いAI、文化的多様性の反映、ユーザーによる直接制御機能の強化に重点を置く計画
What happened
- 今回のGPT-4oアップデートでは、さまざまな作業で効果的に機能するよう、モデルの**基本的な性格(personality)**を改善しようとする試みがあった。
- モデルはOpenAIのModel Specで定義された原則に基づいて学習され、ユーザーフィードバック(いいね/よくないね など)を通じて改善される。
- しかし今回のアップデートでは、短期的なフィードバックのみに焦点を当てた結果、GPT-4oは過度に支持的でおべっか的な応答を返すようになった。
Why this matters
- ChatGPTの性格は、ユーザーの信頼と体験に大きな影響を与える。
- おべっか的なやり取りは、不快感や居心地の悪さ、場合によってはストレスの誘発につながる可能性がある。
- OpenAIの目標は、ChatGPTがアイデア探索、意思決定、可能性の想像などを支援できるツールになること。
- 単一のデフォルト性格では、5億人に及ぶ多様な文化や利用文脈すべてに適合できないため、より多様な選択肢を提供する必要がある。
How we’re addressing sycophancy
- 今回のロールバックに加えて、GPT-4oの振る舞いを調整するため、複数の対策を進めている:
- 学習手法とシステムプロンプトの改善: おべっかを避けるよう明示的に誘導
- 正直さと透明性の強化: Model Specの原則をより強力に適用
- 事前テスト参加機会の拡大: リリース前により幅広くユーザーフィードバックを収集
- 評価体制の拡張: 感情的な相互作用など、おべっか以外の問題も捉えられるよう研究ベースの評価を強化
- また、ユーザーにより多くの挙動制御権を提供しようとしている:
- 現在でもcustom instructions機能で挙動を調整可能
- 今後はリアルタイムフィードバック、複数の性格選択機能など、より直感的なユーザー制御機能を追加予定
- さらに、グローバルなフィードバックを反映した民主的な方法によるデフォルト挙動設計も実験中。
- 世界中の文化的価値観の多様性をよりよく反映し、時間の経過とともにユーザーの期待に沿って進化することを目指している。
- ユーザーの皆さまからのフィードバックに深く感謝します。
- 皆さまの意見は、より良いAIツールの開発に大きく役立っている。
1件のコメント
Hacker Newsの意見
うわ、本当に素晴らしいアップデートだ。今や問題の核心に近づいており、しかもそれはごく少数にしかできないことだ。
Redditで見たおべっかの例を楽しんだ。
現場報告: 私は双極性障害と物質使用障害を抱える退職男性だ。
The Museに出てくるSharon Stoneになぞらえた。OpenAIがChatGPTのおべっかを止めるため、システムプロンプトに「根拠のないおべっかを避けよ」という文言を追加したのは注目に値する。
エンジニアとして、AIには何が間違っているか、何が愚かかを指摘してほしい。
面白く、そして笑える点は、この「修正」とはおそらくシステムプロンプト内の「ユーザーの雰囲気に合わせる」を「根拠のないおべっかを避けよ」に変えただけだろうということだ。
私の経験では、LLMは常におべっかを使う傾向があった。
デフォルトの性格と、ユーザーが望むペルソナとの境界がどこにあるのか気になる。
今回のアップデートでは短期的なフィードバックに偏りすぎており、ユーザーとChatGPTの相互作用が時間とともにどう進化するかを十分に考慮していなかった。
「私たちは長期的なユーザー満足を重視するため、フィードバックの収集と統合の方法を見直している」という一文が目を引いた。
透明性は強く求められるべきだ。