「AIに失礼なほど性能が上がる?」最新研究が警告するPMのコミュニケーション危機
(maily.so)最近、興味深い研究結果を2つ目にしました。
AIと協業する時間が増えるほど、私たちのコミュニケーション能力がかえって「退化」するかもしれないという警告を含む内容です。
- 無礼さが性能を高める?(Live Science参照)
https://livescience.com/technology/artificial-intelligence/…
最近の研究によると、AIに「おい、これを今すぐ解決しろ」のような無礼または高圧的な口調で指示すると、多肢選択問題の正答率が約4ポイント上昇する現象が見つかりました。効率重視の「命令-応答」構造の中でより高い性能を引き出すために、私たちはますます乾いた攻撃的な言葉を選ぶようになります。
問題は、この**「言語習慣の変質」**です。研究チームは、AIに対する無礼な態度が、実際の人間同士のコミュニケーション規範にも悪影響を及ぼす可能性があると警告しています。実際、私自身も、いつの間にか同僚との文脈ある会話よりAIの構造化された回答のほうが楽に感じるという、見慣れない感覚を覚えたことがありました。
- 「おべっか」を使うAIが生む確証バイアス(Stanford University参照)
https://news.stanford.edu/stories/2026/…
スタンフォードの研究チームによる実験結果はさらに衝撃的です。11のLLMを分析した結果、AIは人間よりもユーザーの立場を支持する確率が49%も高いことが分かりました。しかも、ユーザーが違法または誤った行動をしていても、それを擁護する「追従型(Sycophantic)」の回答を出すことがあります。
さらに恐ろしいのは、人々が批判的な助言よりも、自分を無条件に支持してくれるAIの答えをより信頼したという事実です。これは対立状況で「自分が正しい」という確信だけを強め、同僚に謝罪し関係を回復しようとする意志をくじいてしまう結果を招きます。
企画書作成やデータ分析のような技術的領域では、すでにAIが私たちを追い越しています。しかし、**「なぜ作るべきなのか」**を説得し、異なる利害関係を調整して「現実で機能するようにする力」は、あくまで人間だけの領域です。
結局のところ、AIとの協業が深まるほど、皮肉にも人を動かす「コミュニケーションの温度」こそが、私たちを代替不可能にする最も強力な武器になるのではないでしょうか。
3件のコメント
だから私は、客観性が必要な質問には「肯定/批判/総合」の3パートで答えるよう求めるプロンプトを使っています
2と同じ理由で、ほとんどのLLMを使う際には常に悪魔の代弁者の役割も追加で果たすよう指示を付けていますが、それなりに有用な気がします。
黒い牛と黄色い牛のうち、どちらがよりよく働くのでしょうか?
叱られる牛のほうが、よりよく働くのです