2 ポイント 投稿者 GN⁺ 2025-04-05 | 1件のコメント | WhatsAppで共有
  • OSINT(公開情報分析)は本来、「考えるゲーム」だった
  • 最近では、ますますAIツールに依存する「信頼のゲーム」へと変わりつつある
  • 文書要約、翻訳、レポート作成から始まり、AI主導の調査へと移行する中で批判的思考が減っている
  • 「より賢く働いている」という錯覚の中で、実際の思考プロセスが崩れている

AIの拡散がもたらした変化

  • 筆者自身もChatGPT、Copilot、Claude、Geminiなどを毎日使っている
  • 問題は、分析者たちが難しい工程を飛ばし、AIに思考を委ね始めたこと
  • OSINTでは速度だけが重要なのではなく、判断力こそが核心だが、その判断力はモデルでは与えられない
  • 批判的な習慣を守らなければ、調査官ではなく自動化オペレーターになってしまう

誰もが読むべき研究結果

  • 2025年初頭、Carnegie MellonとMicrosoft Researchのチームが319人の知識労働者を対象にした研究を発表
  • 結果:AIへの信頼が高いほど、批判的思考は低くなる傾向があった
  • 逆に、自分自身への自信が高い人ほど、より多く問い、検証していた
  • AIへの信頼は、そのまま自分の思考を放棄することにつながる

実務で現れている現象

  • 仮説を立てるより、AIにアイデアを尋ねる方向へ変化
  • 出典を検証するより、AIがすでにやったはずだと考える
  • 多様な観点を評価するより、AIの要約を編集して終える
  • 専門家でさえこうしたやり方に慣れ、思考を止めてしまうケースが増えている

OSINTにおけるAI誤用の事例

画像検証の失敗

  • デモ写真をGeminiにアップロードし、「この写真はどこか?」と尋ねると「パリ」と回答
  • 標識、ナンバープレート、建築様式を見ればベルギーであることは明白なのに、AIを信じて見過ごし誤判断

人物プロファイルの歪み

  • Claudeで人物のオンライン活動を要約すると、「活動家、技術関係者、無害な人物」と表現
  • 極右フォーラムでの活動履歴は抜け落ちる → 検証なしにイベント登壇者として選ばれる危険

偽情報キャンペーン分析の失敗

  • TelegramのメッセージをChatGPTに入力して要約とパターン分析を依頼
  • キーワードだけが示され、ロシアの情報操作グループの言語パターンは見逃された

OSINT分析者が直面する脅威

  • これらの事例はいずれも、非常に現実的なOSINT失敗の可能性を示している
  • 問題は、悪意も怠慢もない分析者たちがツールを過度に信頼したこと
  • AIは調査能力を代替できず、無批判な使用はOSINTを危険にする

死につつあるOSINTの専門技能(Tradecraft)

  • 専門技能とは「ツールの一覧」ではなく、疑い、確認する思考習慣のこと
  • 何かおかしいと感じたときに見直す習慣、メタデータ確認、言語の不一致検知といった本能
  • AIは仕事を簡単に見せ、思考過程を消してしまう
  • 利便性の中で専門技能は失われつつある

過去と現在の分析者の比較

以前は:

  • ぼやけた画像を複数のツールで分析し、EXIF情報を確認し、ランドマークで逆検索した
  • 外国語の投稿を手動で翻訳し、ハッシュタグを追跡し、アカウントの活動履歴を確認した
  • ドメインのWHOISを分析し、サブドメインを追跡し、メールのつながりを調査した

現在は:

  • 画像をAIに入れ、場所だけ確認して終える
  • 投稿をAIに要約させ、そのまますぐ使う
  • 「このドメインは誰が運営しているのか?」とAIに尋ね、その答えを信頼する

専門技能喪失の結果

  • 文脈的な思考力、情報源間のクロスチェック、仮説検証、深い探索能力の喪失
  • AIは説得力のある文章と自信ありげな口調で錯覚を誘う
  • 悪意ある勢力はAIの弱点を悪用し、操作されたデータを流し込む

分析者の新しい役割:AIの監視者

  • GenAIはなくならない。問題は、それを「補助者」ではなく「判断基準」と見なすときに起こる
  • 分析者には今、AIをテストし、検証し、疑う役割が必要
  • 「答えを見つける人」ではなく「答えを壊す人」になるべきだ

分析者の思考様式の変化

  • 以前は単に AIに質問を投げて答えを受け取る 役割だったとすれば、
    今は AIが出した回答を綿密に尋問し、検証する 役割へ変わらなければならない
  • 以前は AIが要約した内容をそのまま受け入れる にとどまっていたなら、
    今は その要約を細かく分解し、どんな情報が抜け、どんな解釈が入り込んでいるかを分析しなければならない
  • 以前は AIの提案をそのまま使ったり従ったりする ことが多かったなら、
    今は その提案がなぜそう出てきたのかを分解し、再構成してみる作業 が必要だ
  • 以前は AIが示した整然として断定的な答えを信じる 傾向があったなら、
    今は その答えがどこから来たのか、どの情報源に基づくのかを、泥臭く複雑でも追跡しなければならない
  • 以前は ある人物や出来事のプロファイル作成をAIに任せていた なら、
    今は そのプロファイル内のナラティブが実際の文脈と合っているかを自分で検証する作業 が重要だ
  • 以前は AIが下書きをうまく作ってくれればそのまま提出していた が、
    今は その下書きを解体し、問題点を見つけ、再び組み立てて本当に自分のものにする過程 が必要だ

批判的思考を蘇らせる方法

あえて「摩擦」を加える

  • 速すぎる結果は危険
  • AIが提供した情報でも、自分が本来行っていた検証手順をそのまま実行する

戦術:

  • 「AIがなかったら何をしただろう?」 → その作業を実際に行う
  • AIの出力が正しいかどうか、あえて反例を探す
  • 別のモデルに「正反対の解釈をしてみて」と依頼する

情報源確認の習慣を復元する

  • GenAIはOSINT的な引用をしない
  • モデルが示した名前、リンク、引用文は必ず逆追跡が必要

戦術:

  • AIの結果と実際の情報源を並べて比較する
  • 要約を見るとしても、原文は必ず開くこと

AIを「思考のパートナー」として扱う

  • AIはジュニア分析者にすぎず、監督が必要

戦術:

  • 自分の仮説に反論するよう求める
  • 自分の調査ノートを渡し、抜けている点を指摘させる
  • 多様な観点をシミュレーションさせる用途に使う

モデル間で比較する

  • ChatGPT、Claude、Gemini、Copilotの出力を比較
  • 違いをシグナルと見なし、原因を探る

あえてモデルを「壊す」

  • 意図的に矛盾したり曖昧だったりする質問を投げる
  • エラー発生パターンを把握し、人間の判断力で補う

「難しい作業」を続ける

  • AIは補助ツールであり、中核作業は自分でやるべき

戦術:

  • AIを使う前に自分でジオロケーションを試す
  • AIの要約を見る前に自分で要約を書く
  • AIでプロファイルを作る前に、まず自分でプロファイリングして比較する

静かな崩壊と、それに対抗する方法

  • 批判的思考の崩壊は突然やって来るわけではない
  • レポートがより速く、よりきれいになるほど危機である可能性がある
  • 正解のように見える情報を、確認せず信じる習慣は危険

しかし、これらはすべて取り戻せる

  • AIを排除する必要はない
  • その代わり、AIに向き合い、疑い、反論しなければならない
  • あなたは「ツール利用者」ではなく「調査者」だ

✅ OSINTにおけるAI乱用防止チェックリスト

  • ✅ AI出力の原典を追跡したか?
  • ✅ AIの結果を受け入れる前に、非AIの情報源を参照したか?
  • ✅ 反対仮説や別のモデルで検証したか?
  • ✅ 2つ以上の人間の情報源でクロスチェックしたか?
  • ✅ 少なくとも1つの作業を手動で実行したか?
  • ✅ AI出力に暗黙の前提があるか確認したか?
  • ✅ AIを真実の源ではなく、思考のパートナーとして扱ったか?
  • ✅ 意図的に検証プロセスを遅くしたか?
  • ✅ 「自分は何を確認せずに信じているのか?」と自問したか?
  • ✅ 自分たちのOSINT成果物でAIを使ったことを読者に明示したか?

1件のコメント

 
GN⁺ 2025-04-05
Hacker Newsの意見

• 参加者は怠け者ではなかった。彼らは経験豊富な専門家だった

  • AIが登場する前まで彼らが優れた批判的思考者だったという前提は誇張である
  • 私の経験では、LLMに思考を外注する人たちは、ポッドキャスト、ニュース記事、Redditの投稿、Twitter、TikTokなどにも思考を外注していた人たちである
  • LLMは彼らに反復可能な意見を提供した

• 多くのユーザーがGenAIのおかげで自分は批判的に考えていると信じていることが恐ろしい点である

  • TikTok動画を通じて専門家になったように感じるのと大差ない
  • 思考を外注し、自分が聞きたい意見を集める人たちは、いまや望む結論にさらに簡単にたどり着けるようになった

• オープンソース情報における大きな問題は、深い分析ではなく、情報の洪水の中で見る価値のあるものを見つけることである

  • CIAの観点では、米国の情報コミュニティはOSIRISという生成AIシステムを使ってオープンソース情報を分析している
  • CIAの元長官は、主に要約に使われていると述べた

• 仮説を立てる代わりに、ユーザーはAIにアイデアを求める

  • 出典を検証する代わりに、AIがすでに検証したと仮定する
  • 複数の観点を評価する代わりに、AIの要約を統合・編集して先へ進む
  • これは仮想の状況ではなく、実際に起きていることである

• 文章を書いたり分析したりする物理的な行為や瞬間が重要だと思う

  • ぼやけた画像を写真編集ソフトウェアに取り込み、操作ツールを使うことが、問題解決に不可欠な部分である
  • 新製品向け製造ラインのプロセスフロー図を作成中である
  • アイデアや疑問は、こうした小さな余白から生まれるように思える

• AIが人間をより愚かにすることで、超人的な知能を達成しうる方法の一つである

  • GenAIの使用は、有用なツールというより有害なものに見える
  • 写真をアップロードして場所を尋ねるシナリオで、AIは誤った位置を提示する

• AIは学習速度を遅くすると感じる

  • Rustを学んでいるが、AIは始める助けにはなる一方、実務レベルの能力に達するまでにより時間がかかる
  • AIを切って、自分で悪戦苦闘すべきだと思う

• 20年以上アナリストとして働き、OSINTとAIを使ってきた

  • ほとんどのアナリストは批判的思考力を持っている
  • OSINTは法的手続きによって常に統制されているわけではないため、多くの人がOSINTアナリストになれる
  • AIの提案に従ってしまう圧力がある

• OSINTと分析は、方法論を持つ専門技術である

  • AIと組み合わせたOSINTは、以前は不可能だったことを可能にする
  • 批判的思考の不足は、データ検証のための人員やプロセスが減ったことに起因する可能性がある

• OSINTの基本を理解したいならホームページを訪れるだろう

  • しかし、簡単なchatgptクエリのほうがより速く答えを返すだろう

• この投稿はOSINTに限った話ではなく、AIが新しいツールとして採用される場所であれば広く当てはまる可能性がある