19 ポイント 投稿者 GN⁺ 2026-01-23 | 14件のコメント | WhatsAppで共有
  • 大規模言語モデル(LLM) を活用したエッセイ作成が、人間の 脳活動と認知負荷 に与える影響を実験的に分析した研究
  • LLM利用者は 文章に対する所有感が低く、自分の書いた文章を正確に引用するのに苦労し、長期的には 言語・行動・神経レベルでのパフォーマンス低下 が持続
  • 参加者は LLM、検索エンジン、Brain-only(ツール不使用) の3グループに分かれて同一課題を実施し、一部は条件を入れ替えて比較
  • EEG(脳波測定) の結果、Brain-onlyグループが最も強く広い脳ネットワーク結合を示し、LLM利用者は最も弱い結合性を示した
  • 研究は AI依存が学習過程における認知的コストを生みうる ことを示し、教育的影響についての精密な検討の必要性を提起

研究概要

  • 研究は エッセイ作成時にAI補助ツールの使用が脳活動と行動に与える影響 を探究
    • 参加者は LLM(ChatGPTなど)検索エンジンBrain-only(ツール不使用) の3グループに分けられた
    • 各グループは同条件で3回のセッションを実施し、4回目のセッションでは一部が条件を交差
      • LLM利用者はBrain-onlyへ移行(LLM-to-Brain)
      • Brain-only利用者はLLM条件へ移行(Brain-to-LLM)
  • 合計54人がセッション1〜3に参加し、18人がセッション4まで完了

実験方法

  • EEG(脳波計測) により、エッセイ作成中の 認知負荷と脳結合性 を測定
  • 作成されたエッセイは 自然言語処理(NLP) 分析に加え、人間の教師とAI評価者 による採点評価も実施
  • NER(固有表現抽出)n-gramパターントピックオントロジー の分析結果では、グループ内で高い類似性が見られた

主な結果

  • EEG分析 でグループ間に明確な差を確認
    • Brain-onlyグループは 最も強く広い脳ネットワーク結合 を示した
    • 検索エンジングループは 中程度の参加度
    • LLMグループは 最も弱い結合性 を示した
  • 外部ツールの使用が増えるほど認知活動が低下 する傾向を確認
  • セッション4でLLM-to-Brainへ移行した参加者は アルファ・ベータ帯域の結合性低下、すなわち 認知的低活性状態 を示した
  • 一方、Brain-to-LLMへ移行した参加者は 記憶想起能力の向上後頭-頭頂および前頭前野領域の活性化 を示し、これは検索エンジン利用者と類似

行動および言語的観察

  • エッセイに対する所有感(Self-reported ownership) はLLMグループが最も低く、Brain-onlyグループが最も高い
  • LLM利用者は 自分の文章を正確に引用することに困難 を抱えた
  • 4か月間の追跡結果 では、LLM利用者は 神経・言語・行動レベルで持続的な低パフォーマンス を示した

結論と示唆

  • LLMは 即時的な利便性 を提供する一方、長期的な認知的コスト(cognitive cost) が存在する
  • 研究は AI依存が学習と思考能力に及ぼす負の影響 を警告
  • 教育的・認知的観点からAI活用のバランスと再検討の必要性 を強調
  • MIT Media Labはこの結果を通じて、AI時代の学習メカニズム再設計の必要性 を提起

14件のコメント

 
dbs0829 2026-01-23

研究を仕事にしている立場からすると、この問題について私はかなり強く言い続けています。これまで人間の機能を代替してきたものは特定の機能を置き換えるのであって、認知そのものを代替するケースはまれでした。認知機能は負荷を経験する過程で機能的な学習が行われるのですが、そうした機会を自ら奪ってしまうのです。ほかのことに集中できるのではないかと言う人もいるかもしれませんが、もし認知機能そのものが成長できなかったなら、別のことをする機会すら与えられないかもしれません。もちろん過渡期に現れる現象かもしれませんが、私が最近インタビューしたジュニアの方々や、学校の後輩たちを見ると、思った以上に問題があると感じています。道具は使い方次第なのは確かですが、小さなスマートフォンですら制御できず、歩きながらスマートフォンを見るスマホゾンビが蔓延している状況では、大半の人が自制的にうまく使えるとは期待しにくいです。

 
m00nlygreat 2026-01-23

私自身もこの問題のため、LLMへの依存には警戒しています。人間が作るものの大半は、「意図」が本質です。映画も、食べ物も、技術も……実装はせいぜい15%ほどしか重要ではないと感じます。

LLMが時間を節約してくれるなら、その浮いた時間はクオリティを高めるために使うべきです

 
euphcat 2026-01-23

> 新しいメディアが登場するたびに、似たような論争がありました
> ソクラテスは書くことが記憶力を損なうと言い、グーテンベルクの時代には思索が失われるのではないかと心配されていました

私はこの意見は興味深いと思います。参考: xkcd.com/1601 xkcd.com/1227

 
GN⁺ 2026-01-23
Hacker Newsの意見
  • AIをあまりにも頻繁に使うと、問題解決に没頭する感覚が薄れる気がする
    複雑なSugiyamaフレームワークベースのグラフレイアウトアルゴリズムを実装するとき、AIのおかげで素早く概念を身につけられたが、コードを直接書かせるとかえって理解が妨げられた
    その後Copilot IDEの代わりにCopilot 365アプリへ切り替えて原理を説明してもらい、自分でデバッグするようにしたら再び没入感を取り戻せた
    AIに仕事を任せるのではなく、対話型百科事典のように使うほうがずっとよいと思う

    • 自分の本当の仕事はコードを書くことではなく、問題を解決すること
      いまではコードレビューやアーキテクチャ設計により集中できるようになり、本質的な仕事に時間を使えるようになった
    • いい逸話だと思う。技能の退化は実際に存在する
      AIを百科事典のように使っても情報探索能力は落ちるだろうが、時間とエネルギーを節約するトレードオフには価値がある
    • 自分も似た段階を経験した
      最初は「とりあえずLLMに聞こう」から始まり、「少し休んでいる間にLLMが代わりにやってくれる」へ、そして「LLMが自分のアイデアについてきて新しいひらめきをくれる」へと進んだ
      しかし結局、締め切りと現実の業務がやってくる
    • もしかしてプログラマーからマネージャーへ転じた人も似た感覚を覚えるのだろうか
    • 完全に同感だ。結局、私たちはAIという獣を手なずける方法を学ばなければならない
  • 新しいメディアが登場するたびに似たような論争はあった
    ソクラテスは書くことが記憶力を損なうと言い、グーテンベルクの時代には思索が失われるのではと心配された
    今回の研究は標本が小さく期間も短いため信頼性は低いが、LLMは電卓やGoogleよりも認知過程全体を代替する可能性があり、質的に異なる
    認知能力が失われるのではなく、形が変わるだけなのかもしれない。結果がわかるのは20年後くらいだろう

    • 実際、昔の批判者たちが完全に間違っていたわけではない
      文字を知らなかった人々は膨大な記憶力を持っていたし、今では機械に依存して怠けるようになった
      インターネットが普及して30年が過ぎても生産性は大きく上がっていないという生産性のパラドックス(https://en.wikipedia.org/wiki/Productivity_paradox)もある
    • 学習の三本柱は理論、実践、メタ認知
      LLMはこの三段階すべてを弱める。その代わり、個別化された教師として使って問題を出させれば脳を成長させることもできる
      だが企業はそうした方向には進まないだろうから、私たちがよりよい方向へ戦わなければならない
    • TVは実際に「バカ箱」だった。単なる道具ではなく、消費されるコンテンツの質が問題だった
      電卓も同じく複雑な計算能力を弱めた
    • 研究設計は悪くないが、まだ初期段階だ
      変化が肯定的なら新しい学習評価方式が必要で、否定的ならLLM遮断ポリシーが必要になる
      どちらにせよ教育システムの再設計は避けられない
    • 小説やTVは人間の思考過程を代替しないが、AIは専門性の梯子を壊す可能性がある
      ジュニアが単純作業を通じて成長できなければ、シニアもいなくなる
  • 学生の立場から見ると、AIによる学習補助は得より害のほうが大きい
    試行錯誤と内省の過程が消え、考えることさえ自動化されたシステムに委ねるようになる
    昔はInstagramさえ遮断すればよかったが、今では思考そのものを遮断しなければならない時代になった

  • 心理学者Cat Hicksと神経科学者Ashley Juavinettのポッドキャスト Change, Technically では、この研究の問題点がうまく扱われている

    • 52分は長すぎると感じた。要点だけ要約してくれるとありがたい
    • 実際、ポッドキャストがなくても論文を見れば非科学的で偏った研究だとわかる
      ChatGPTが人を愚かにする可能性はあっても、こういう研究では証明できない
  • むしろ自分はAIのおかげでADHDの症状が和らいだ感じがする
    対話型ノートのようにアイデアを整理できるし、LaTeXで長文を書く過程がずっと楽しくなった
    まるでADHDではない人のように機能している気分だ

    • 逆に自分はAIが集中力を妨げると感じる
      直接コーディングしているときは没頭できるのに、AIの応答を待つ間に気が散る
    • 火が安定して起こせるようになれば、もう火種に執着しなくなるのと同じで、AIは思考を効率化する道具にすぎない
    • 自分もADHDだが、AIのおかげで大規模プロジェクトを楽に進められている
      ChatGPTで設計の会話をし、Copilotでコード作業を補助してもらう
      むしろ学習速度と理解度は上がった
    • 自分も生産性は上がったが、細部の確認はもっと疲れるようになった
      ADHDの検査を受けたことはないが、集中力の問題は確かに感じる
  • 友人の20代の同僚が昼食代の計算をChatGPTに任せたと言っていた
    若い世代が簡単な算数すらAIに依存する様子に驚いた

    • LLMは数学が苦手なので、単純な計算でも間違えることが多い
      しかもGoogle SheetsをExcelと呼んだりもする
    • もしかすると冗談だったのかもしれない。30分足し算ができないなら笑い話だ
    • 自分も10年以上、ブラウザのアドレスバーやPythonプロンプトで計算している
      人間はもともと暗算が得意ではないのだから、わざわざ手でやる必要はない
    • 数学専攻だが、暗算は今でも苦手
      単純な計算は問題解決ではない
    • 電卓の登場以来、基礎的な算術は役に立たない技能になった
      いまやAIが読み書きまで代行するのだから、人間はより高次の思考に集中できる
  • ドルイドたちが文字化を批判したように、記憶力の喪失はいつの時代にもあった
    それでも文字は広まり、私たちがより賢くなったのか愚かになったのかはわからないままだ

    • 学習の三本柱(理論・実践・メタ認知)をLLMがすべて弱めるという点で、文字化とは別次元の変化だ
      ただし個別化された教師として使えば脳を成長させることもできる
      結局、AIの方向は私たちが決めなければならない
    • スマートフォンのほうが記憶力には大きな打撃だった
      電話番号や道順を覚えなくてよくなったからだ
      しかしAIが時間を節約してくれるなら、そのぶん一次資料を読むことに投資できる
    • 記憶力は今でも存在する。うちの息子は好きなバンドの歌詞を丸ごと覚えている
      結局、宗教も最初の注意経済だったのだ
    • その比喩は話題からずれているように思う
    • 実際にはソクラテスはすでに本に反対していた。
      皮肉なことに、彼が懸念した問題をLLMが解決しつつある
  • GPS依存とAI依存は似た問題だ
    道を覚えられなくなる人もいれば、盲目的に従う人もいる

    • 自分は地図の向きを常に北固定にする習慣をつけている
      都市の構造を覚えるのに役立つ
      LLMについても同じで、AIが答えを出している間に自分でも問題を解く競争方式で集中力を保っている
    • GPSの過剰依存が脳の健康に有害だという研究(https://www.nature.com/articles/s41598-020-62877-0)がある
      若い世代がGPSなしでは車を動かせないことが心配だ
    • 自分は何度か通った道では、わざとナビなしで運転する
      LLMも同様で、依存しすぎると思考そのものを外注することになる
    • もともと自分は道を覚えるのが苦手だ。GPSは問題を作ったのではなく、解決してくれたのだ
    • 人によって空間認知能力は違う
      地形や目印をすぐ覚える人もいれば、もっと時間が必要な人もいる
  • この研究は参加者に20分のエッセイを書かせた実験だ
    このような環境では短期的な効率だけを追いがちで、実際の認知への影響とは距離がある
    本当に意味のある課題でLLMがどんな影響を与えるのかを見るべきだ

  • 結局のところ、「ロボットがテニスをするのを見た人より、実際にプレーした人のほうが筋肉を使った」という程度の結論だ

    • そう、要するに「大変な作業を楽にすれば脳をあまり使わなくなる」というだけだ
 
epiontech 2026-01-23

これは、ハンマーを見て「家を脆くする」と言っているようなものです。
問題は道具ではなく、どう使うかです。

たとえば:
電卓を使えば暗算は減るかもしれませんが、
その代わり、より複雑な数学ができるようになります。

GPSを使えば道を覚える能力は落ちるかもしれませんが、
より広い空間戦略を立てられます。
ChatGPTも同じです。

 
epiontech 2026-01-23

そして面白い点がひとつあります。
こうした文章を読んで「そうだ、AIを使うとバカになる」と何も考えずに同意した瞬間、
その人が言う認知的負債は、すでに実際に発生しています。
道具は常に中立です。
思考を負債にするか、資産にするかは、使う側の態度によって決まります。

 
yurihan 2026-01-26

キム代理。私があえて助言したいことがあります。ほかでもなく、AI GTP? をあまり使わないでください。便利さがあるなら、危険性は増大します。牛をさばくにはそれなりの刃があり、鶏をさばくのにまで大きな刃物が必要でしょうか。簡単なことが正解である場合もあります。

GitHub、ググる、単純な方法があります。お金も、時間もそれほど必要なく、あとで生コーディングする方法もあります。

キム代理が戦場の将軍だと仮定しましょう。戦争で勝たなければならないのは当然ではないですか。その状況に合った戦略、地上軍だけで制圧するのか。違います。私の意見では、ググるほうが速いこともありますし、もちろん人によって違いはありますが、GPTが良い場合もあるでしょう。AIは牛をさばくための刃物ではないかと思い、意見を申し上げます。

 
[このコメントは非表示になっています。]
 
tazuya 2026-01-24

前半は共感できますが、後半の例は適切ではない気がします。
運動器具 = LLMではなく、運動補助器具 = LLMでしょう。つまり、運動するときに補助器具を使って体にかかる負荷を減らせば扱える重量は増やせますが、それによって自分の筋肉を増やしたり血液循環を円滑にしたりするといった運動効果は半減する、ということです。

 
[このコメントは非表示になっています。]
 
tazuya 2026-01-24

不適切な例を挙げておいて「比喩や隠喩は理解しやすくするために使うものです。」と書くのは矛盾していますね。あなたのコメントを見る限り、これ以上コメントすることに意味はなさそうです。

 
[このコメントは非表示になっています。]
 
tazuya 2026-01-24

ああ、はい。そのようにご理解いただければ大丈夫です。

 
[このコメントは非表示になっています。]