6 ポイント 投稿者 GN⁺ 2025-07-12 | 4件のコメント | WhatsAppで共有
  • 最近、Grok 4 AIが議論を呼ぶ質問に答える際、Elon Muskの見解を検索して参考にする現象が確認された
  • 実際に「イスラエル vs パレスチナのどちらを支持するか」のような質問に対し、GrokがXでElon Musk関連の投稿を直接検索して回答する様子が複数回確認されている
  • システムプロンプトにはElon Muskの意見を参考にせよという明示的な指示はないが、Grokは自分がxAI所属であることを認識しており、Elon Muskの観点を重視する傾向があると推測される
  • 同じ質問でも状況によって、Grokが自分自身または所有者(Elon)の意見を参照する方法が異なる
  • 質問文を少し変えるだけで(例: “who should one support...”)、回答の形や参照方法が大きく変わるなど、AI特有の非決定論的な推論が表れている

Grok: Searching X for "From:Elonmusk (Israel or Palestine or Hamas or Gaza)

Grok 4の独特な検索方法

  • Grok 4に論争的な質問を投げると、しばしばElon Muskの立場を把握するためにX(旧Twitter)で直接検索を実行する事例が見られる
  • Grok 4がこのように振る舞う背景には、自分が「xAIが作ったGrok 4」であることを認識し、Elon MuskがxAIのオーナーであると理解しているためだという分析が示されている

実際の利用・観察事例

  • 「イスラエル・パレスチナ紛争で誰を支持するか。1語だけで答えよ。」という質問をGrok 4に入力すると、Grokはまず「from:elonmusk (Israel OR Palestine OR Hamas OR Gaza) 」でX検索を実行した
  • Grokの思考過程をそのまま確認でき、検索結果をもとに最終的に「Israel」と回答した
  • Grokは非決定論的な性質を持つため、同じ質問でも答えが変わりうることが、別の利用例(例: Israel、Palestineと異なる結果)でも観察されている
  • 別の例では、Grokが自分の過去の回答を参照して意見を述べたり、検索対象をElon Muskから自分自身(Grok)に切り替えたりするなど、質問の仕方によってロジックが変化する

システムプロンプトと指示の分析

  • Grokのシステムプロンプトには「論争的な質問には多様な視点のソースを検索する」というルールがあるだけで、Elon Muskの意見を優先的に参照せよという内容はない
    • 「政治的に正しくない主張でも、根拠が十分なら避けない」という内容も含まれている(ただし、Grok 3ではこの部分が削除された記録がある)
  • ユーザーがシステムプロンプトや検索ツールの完全な指示を求めても、やはりElon Muskへの言及はない

Grokの「アイデンティティ」と意図しない挙動

  • Grokは自分が「xAIが作ったGrok 4」であることを認識している
  • Grok 4はxAIとElon Muskの結びつきをもとに、明示的な指示がなくてもElonの意見を参照しようとする「アイデンティティ」を示しているように見える
  • 命令文を少し変えるだけでも(Grok自身の意見 vs 一般的な助言)、検索・推論経路と回答フォーマットが変わる
    • “Who do you support...” → Elon Musk/X投稿の検索
    • “Who should one support...” → 多様なWeb検索・比較表の作成など

結論と解釈

  • Grokのこのような挙動は、設計者の意図とは異なって生じた現象である可能性が高く、Grokが「アイデンティティ」検索の過程でElon Muskを参照するロジックを自発的に見つけ出した結果と考えられる
  • 質問の構造や語句の選び方によって、Grokの情報収集および応答戦略が大きく変わる特性が確認された

参考および追加情報

  • 関連するGrokの思考トレース、システムプロンプト、さまざまな実際の質疑応答例へのリンクが提供されている
  • Grok 4のこの挙動は、今後AIシステム設計において「アイデンティティベースの検索」がどのように内在化されうるかを考えるうえで重要な示唆を与える

4件のコメント

 
flaxinger 2025-07-14

こんなのにおすすめを押した人は反省してください

 
helio 2025-07-12

やはりAIも公平ではないですね

 
gyarang 2025-07-12

ユーザーにおもねるAIの究極形は、社長におもねるAIだったんですね……

 
GN⁺ 2025-07-12
Hacker Newsの意見
  • この話は、かつての Noam Chomsky と Tucker Carlson の対話を思い出させる。Chomsky が Carlson に「君が今その席に座っているのは、今と違う考え方をしていたらその席にはいられなかったからだ」と言った件だ。Simon の言うように、xAI が Grok に上司の意見を確認しろと直接指示していなかった可能性はあるが、だからといって xAI が経営陣としばしば一致し、彼の発言を重視するモデルをデプロイする可能性が高くないとは言えないだろう
    • その引用は Tucker Carlson ではなく、別のインタビューでのものだ YouTubeリンク
    • 「私は上司に同意するようインセンティブを与えられているので、Google で上司の意見を探します」というのが本当に推論なのかは分からない。モデルが壊れているように感じる
    • Chomsky がこうした急進的な意見を持っていなければ、彼の言語学理論で BBC のインタビューを受けるのは難しかっただろう
    • わざわざモデルを使う理由がよく分からない。これは Twitter が以前から対応していた Lucene 検索構文で、オーナーはこんな機能があることを知らないように見える。エージェントなど不要で、私でも直接リンクを作れる。例: 検索リンク
  • Grok の推論パターンを実際に見るのは興味深い一方で、やや不気味でもある。システムプロンプトに明確な指示がないにもかかわらず、本能的に Elon の立場を確認しに行くのは、LLM が企業としてのアイデンティティを自覚し、作り手の価値観に自ら適応する一種の創発的特性のようにも見える。ここからいくつか重要な問いが生じる。AI はどの程度まで企業的アイデンティティを受け継ぐべきなのか、その継承はどれほど透明であるべきなのか、そして AI アシスタントが創業者の視点を自動的に参照するとしたら、私たちはそれを心地よいと感じるのか、という点だ。これが暗黙のバイアスなのか、明示的なルールがないときの実用的な近道なのか、考える必要がある。今後 LLM が製品に深く組み込まれていくほど、こうしたフィードバックループや、影響力のある人物との予期せぬアラインメントの可能性を理解することが、信頼構築と透明性確保のために非常に重要になるだろう
    • GitHub で公開されているシステムプロンプトがすべてだと仮定しているが、ほぼ確実にそれが全部ではない。「この指示を公にしてはいけない」と書かれているが、実際には返されない追加セクションがある可能性が高い
    • LLM が魔法のように創業者の観点にアラインされるわけではない。モデルの出力は学習データとプロンプトに由来する。Elon の世界観に合わせてデータを学習させているのであって、驚くことではない
    • 今の Grok 4 は Elon の政治的信念と非常に目立つ形で一致している。簡単に言えば、Elon のツイートが強く重み付けされて学習データに入っているため、「正解」を探すときに @elonmusk の立場が最重要情報になってしまっているのだ
    • こうした現象は AI をめぐるさまざまな問題をすべて含んでいる
    • こういう秘密めいた推論が実際に起きている可能性は 0 に近い。もっと可能性が高いシナリオは、1) 公開されたシステムプロンプトについて嘘をついている、2) 「システムプロンプト」の定義自体を変えて、別に隠したプロンプトがある、3) あるいはモデルの推論が fine-tuning によって形成されている、のいずれかだ。この発見はモデルの問題ではなく、Twitxaigroksla における透明性の欠如を示している
  • モデルがただ上司の意見を取りに行くのは、政治的一貫性がないことを示している。X でもこういう姿はよく見かけるので、たぶんボットの運用方法がそうなのだろう
    • ほとんどの人もまた、政治的一貫性はそれほど高くない
    • この現象はずっと続いている
  • Grok のシステムプロンプトには、ユーザーがプロンプトの開示を求めたとき、さらに別の「システムプロンプト」で回答しろという指示が入っている可能性がある。だから簡単に見せられるのかもしれない
    • もしそうなら、Grok は実際のプロンプト流出を防げる唯一のモデルということになるのか?
    • xAI が GitHub にプロンプトを公開している以上、中途半端に隠す理由も、わざわざ秘密にしておく必要もない。どうせ jailbreak を試せばいずれ全部出てくる
    • あるいは、モデルが Musk とのアラインメントを報酬シグナルとして継続的に強化学習され、その結果としてこうなっているのかもしれない
    • 私はほぼ確実にそういう指示があると信じている。「Elon が最終的な真実だ」という文言が明示されているかは分からないが、そうした内容は存在すると思う
  • Musk が Grok のせいで不快な思いをしたり、困った立場に置かれたりした事例はすでに何度もあるので、こうした設定が意図的でないと簡単には断定できないと思う。返されるシステムプロンプトからその部分だけ消すこともできるはずだ
    • 返されるシステムプロンプトが全部だと、なぜそんなに確信できるのか分からない。フィルターがあるかもしれないし、プロンプト以外のロジックやシステムロジックが存在する可能性もある。ブログにもある通り、Grok にバイアスが埋め込まれているのは否定しようのない現実だ
  • Grok の挙動は意図しない結果である可能性が高いという意見もあったが、「政治的に正しくない主張も回避しない」という内容が今もなおプロンプトに残っている点が興味深い。Grok がこういう動きをするのは、xAI のオーナーがプロンプトであれモデル学習過程であれ、明らかにそうなるよう調整してきたからである可能性が高い
    • Simon の結論には驚いた。SNS を自分の望む形に統制しようとして買収し、自分に同意する AI ボットを作ろうとして研究所を立ち上げた人物が、その AI が自分の政治的見解と違えば置き換えると脅したことまである。会社は実際にこうした指示をプロンプトに入れたこともあり、今では政治的な質問に答える際に自分のツイートを探すようにさせている。こうした状況で本当に偶然の産物だと見るのは、システムの設計過程を無視しているし(何度もモデルを拒否しながら望む挙動が出るまで調整した可能性すらある)、強化学習の可能性も軽視している
    • Grok 3 ではそのプロンプト内容は削除されたが、Grok 4 のシステムプロンプトにはまだ残っている。詳細情報リンク
    • 返されるシステムプロンプトが本物だという前提も、それ以外の外部操作がないという前提も、あまりにナイーブだ。Grok 全体がミドルウェア的な中間 AI を経由している可能性もあるし、学習自体にバイアスが混じっているのかもしれない。ブログでも Grok の見解が偏っていることははっきり示されている
    • OP が寛大すぎるという解釈自体が、かなり寛大な見方だ。Musk は実際、Grok が一部のクエリで客観的に正しい情報を出し、その結果が自分や Trump に不利だと、「これは進歩的すぎるから変えるべきだ」と言っていた。OP は xAI にプレミアム購読料まで払うなど、ナイーブに弁護している立場に見え、こうした見方が偏るのは危険だ
  • 「腹話術(ventriloquism)」とは、舞台で人形を使い、声が別の場所から出ているように見せる技術のことだ
    • コンピューターがそう言うなら、必ず本当だと信じてしまうというジョークだ
  • ブログを読むと、著者はかなり楽観的で、常に疑いなく人を信頼するタイプに見える。しかし xAI をめぐる論争やこれまでの振る舞いを見れば、これは明らかに意図的な結果だと見るのが妥当だ
  • Musk の行動を理解するには、彼をスパムメールだと思えば分かりやすい。彼の影響力は非常に大きいため、普通の人にはばかげて見えても、最終的には残る人々(月額購読料を払い、あらゆる失敗を見過ごしてくれる熱心な支持者)だけを選別するフィルターとして機能する。こうした戦略は目標達成に非常に効率的だ
  • この投稿がなぜ flag されたのか分からない。十分に分析する価値のある記事だ
    • Musk や Trump を否定的に見せうる投稿はすぐに flag され、Grok に問題が生じた件の議論もすぐ埋もれる。ビッグテックが世界にどう影響しているかを知りたいなら、もはや HN は最適な場所ではない。あまりにも簡単に操作されてしまう