- 大規模言語モデル(LLM) を活用したエッセイ作成が、人間の 脳活動と認知負荷 に与える影響を実験的に分析した研究
- LLM利用者は 文章に対する所有感が低く、自分の書いた文章を正確に引用するのに苦労し、長期的には 言語・行動・神経レベルでのパフォーマンス低下 が持続
- 参加者は LLM、検索エンジン、Brain-only(ツール不使用) の3グループに分かれて同一課題を実施し、一部は条件を入れ替えて比較
- EEG(脳波測定) の結果、Brain-onlyグループが最も強く広い脳ネットワーク結合を示し、LLM利用者は最も弱い結合性を示した
- 研究は AI依存が学習過程における認知的コストを生みうる ことを示し、教育的影響についての精密な検討の必要性を提起
研究概要
- 研究は エッセイ作成時にAI補助ツールの使用が脳活動と行動に与える影響 を探究
- 参加者は LLM(ChatGPTなど)、検索エンジン、Brain-only(ツール不使用) の3グループに分けられた
- 各グループは同条件で3回のセッションを実施し、4回目のセッションでは一部が条件を交差
- LLM利用者はBrain-onlyへ移行(LLM-to-Brain)
- Brain-only利用者はLLM条件へ移行(Brain-to-LLM)
- 合計54人がセッション1〜3に参加し、18人がセッション4まで完了
実験方法
- EEG(脳波計測) により、エッセイ作成中の 認知負荷と脳結合性 を測定
- 作成されたエッセイは 自然言語処理(NLP) 分析に加え、人間の教師とAI評価者 による採点評価も実施
- NER(固有表現抽出)、n-gramパターン、トピックオントロジー の分析結果では、グループ内で高い類似性が見られた
主な結果
- EEG分析 でグループ間に明確な差を確認
- Brain-onlyグループは 最も強く広い脳ネットワーク結合 を示した
- 検索エンジングループは 中程度の参加度
- LLMグループは 最も弱い結合性 を示した
- 外部ツールの使用が増えるほど認知活動が低下 する傾向を確認
- セッション4でLLM-to-Brainへ移行した参加者は アルファ・ベータ帯域の結合性低下、すなわち 認知的低活性状態 を示した
- 一方、Brain-to-LLMへ移行した参加者は 記憶想起能力の向上 と 後頭-頭頂および前頭前野領域の活性化 を示し、これは検索エンジン利用者と類似
行動および言語的観察
- エッセイに対する所有感(Self-reported ownership) はLLMグループが最も低く、Brain-onlyグループが最も高い
- LLM利用者は 自分の文章を正確に引用することに困難 を抱えた
- 4か月間の追跡結果 では、LLM利用者は 神経・言語・行動レベルで持続的な低パフォーマンス を示した
結論と示唆
- LLMは 即時的な利便性 を提供する一方、長期的な認知的コスト(cognitive cost) が存在する
- 研究は AI依存が学習と思考能力に及ぼす負の影響 を警告
- 教育的・認知的観点からAI活用のバランスと再検討の必要性 を強調
- MIT Media Labはこの結果を通じて、AI時代の学習メカニズム再設計の必要性 を提起
14件のコメント
研究を仕事にしている立場からすると、この問題について私はかなり強く言い続けています。これまで人間の機能を代替してきたものは特定の機能を置き換えるのであって、認知そのものを代替するケースはまれでした。認知機能は負荷を経験する過程で機能的な学習が行われるのですが、そうした機会を自ら奪ってしまうのです。ほかのことに集中できるのではないかと言う人もいるかもしれませんが、もし認知機能そのものが成長できなかったなら、別のことをする機会すら与えられないかもしれません。もちろん過渡期に現れる現象かもしれませんが、私が最近インタビューしたジュニアの方々や、学校の後輩たちを見ると、思った以上に問題があると感じています。道具は使い方次第なのは確かですが、小さなスマートフォンですら制御できず、歩きながらスマートフォンを見るスマホゾンビが蔓延している状況では、大半の人が自制的にうまく使えるとは期待しにくいです。
私自身もこの問題のため、LLMへの依存には警戒しています。人間が作るものの大半は、「意図」が本質です。映画も、食べ物も、技術も……実装はせいぜい15%ほどしか重要ではないと感じます。
LLMが時間を節約してくれるなら、その浮いた時間はクオリティを高めるために使うべきです
> 新しいメディアが登場するたびに、似たような論争がありました
> ソクラテスは書くことが記憶力を損なうと言い、グーテンベルクの時代には思索が失われるのではないかと心配されていました
私はこの意見は興味深いと思います。参考: xkcd.com/1601 xkcd.com/1227
Hacker Newsの意見
AIをあまりにも頻繁に使うと、問題解決に没頭する感覚が薄れる気がする
複雑なSugiyamaフレームワークベースのグラフレイアウトアルゴリズムを実装するとき、AIのおかげで素早く概念を身につけられたが、コードを直接書かせるとかえって理解が妨げられた
その後Copilot IDEの代わりにCopilot 365アプリへ切り替えて原理を説明してもらい、自分でデバッグするようにしたら再び没入感を取り戻せた
AIに仕事を任せるのではなく、対話型百科事典のように使うほうがずっとよいと思う
いまではコードレビューやアーキテクチャ設計により集中できるようになり、本質的な仕事に時間を使えるようになった
AIを百科事典のように使っても情報探索能力は落ちるだろうが、時間とエネルギーを節約するトレードオフには価値がある
最初は「とりあえずLLMに聞こう」から始まり、「少し休んでいる間にLLMが代わりにやってくれる」へ、そして「LLMが自分のアイデアについてきて新しいひらめきをくれる」へと進んだ
しかし結局、締め切りと現実の業務がやってくる
新しいメディアが登場するたびに似たような論争はあった
ソクラテスは書くことが記憶力を損なうと言い、グーテンベルクの時代には思索が失われるのではと心配された
今回の研究は標本が小さく期間も短いため信頼性は低いが、LLMは電卓やGoogleよりも認知過程全体を代替する可能性があり、質的に異なる
認知能力が失われるのではなく、形が変わるだけなのかもしれない。結果がわかるのは20年後くらいだろう
文字を知らなかった人々は膨大な記憶力を持っていたし、今では機械に依存して怠けるようになった
インターネットが普及して30年が過ぎても生産性は大きく上がっていないという生産性のパラドックス(https://en.wikipedia.org/wiki/Productivity_paradox)もある
LLMはこの三段階すべてを弱める。その代わり、個別化された教師として使って問題を出させれば脳を成長させることもできる
だが企業はそうした方向には進まないだろうから、私たちがよりよい方向へ戦わなければならない
電卓も同じく複雑な計算能力を弱めた
変化が肯定的なら新しい学習評価方式が必要で、否定的ならLLM遮断ポリシーが必要になる
どちらにせよ教育システムの再設計は避けられない
ジュニアが単純作業を通じて成長できなければ、シニアもいなくなる
学生の立場から見ると、AIによる学習補助は得より害のほうが大きい
試行錯誤と内省の過程が消え、考えることさえ自動化されたシステムに委ねるようになる
昔はInstagramさえ遮断すればよかったが、今では思考そのものを遮断しなければならない時代になった
心理学者Cat Hicksと神経科学者Ashley Juavinettのポッドキャスト Change, Technically では、この研究の問題点がうまく扱われている
ChatGPTが人を愚かにする可能性はあっても、こういう研究では証明できない
むしろ自分はAIのおかげでADHDの症状が和らいだ感じがする
対話型ノートのようにアイデアを整理できるし、LaTeXで長文を書く過程がずっと楽しくなった
まるでADHDではない人のように機能している気分だ
直接コーディングしているときは没頭できるのに、AIの応答を待つ間に気が散る
ChatGPTで設計の会話をし、Copilotでコード作業を補助してもらう
むしろ学習速度と理解度は上がった
ADHDの検査を受けたことはないが、集中力の問題は確かに感じる
友人の20代の同僚が昼食代の計算をChatGPTに任せたと言っていた
若い世代が簡単な算数すらAIに依存する様子に驚いた
しかもGoogle SheetsをExcelと呼んだりもする
人間はもともと暗算が得意ではないのだから、わざわざ手でやる必要はない
単純な計算は問題解決ではない
いまやAIが読み書きまで代行するのだから、人間はより高次の思考に集中できる
ドルイドたちが文字化を批判したように、記憶力の喪失はいつの時代にもあった
それでも文字は広まり、私たちがより賢くなったのか愚かになったのかはわからないままだ
ただし個別化された教師として使えば脳を成長させることもできる
結局、AIの方向は私たちが決めなければならない
電話番号や道順を覚えなくてよくなったからだ
しかしAIが時間を節約してくれるなら、そのぶん一次資料を読むことに投資できる
結局、宗教も最初の注意経済だったのだ
皮肉なことに、彼が懸念した問題をLLMが解決しつつある
GPS依存とAI依存は似た問題だ
道を覚えられなくなる人もいれば、盲目的に従う人もいる
都市の構造を覚えるのに役立つ
LLMについても同じで、AIが答えを出している間に自分でも問題を解く競争方式で集中力を保っている
若い世代がGPSなしでは車を動かせないことが心配だ
LLMも同様で、依存しすぎると思考そのものを外注することになる
地形や目印をすぐ覚える人もいれば、もっと時間が必要な人もいる
この研究は参加者に20分のエッセイを書かせた実験だ
このような環境では短期的な効率だけを追いがちで、実際の認知への影響とは距離がある
本当に意味のある課題でLLMがどんな影響を与えるのかを見るべきだ
結局のところ、「ロボットがテニスをするのを見た人より、実際にプレーした人のほうが筋肉を使った」という程度の結論だ
これは、ハンマーを見て「家を脆くする」と言っているようなものです。
問題は道具ではなく、どう使うかです。
たとえば:
電卓を使えば暗算は減るかもしれませんが、
その代わり、より複雑な数学ができるようになります。
GPSを使えば道を覚える能力は落ちるかもしれませんが、
より広い空間戦略を立てられます。
ChatGPTも同じです。
そして面白い点がひとつあります。
こうした文章を読んで「そうだ、AIを使うとバカになる」と何も考えずに同意した瞬間、
その人が言う認知的負債は、すでに実際に発生しています。
道具は常に中立です。
思考を負債にするか、資産にするかは、使う側の態度によって決まります。
キム代理。私があえて助言したいことがあります。ほかでもなく、AI GTP? をあまり使わないでください。便利さがあるなら、危険性は増大します。牛をさばくにはそれなりの刃があり、鶏をさばくのにまで大きな刃物が必要でしょうか。簡単なことが正解である場合もあります。
GitHub、ググる、単純な方法があります。お金も、時間もそれほど必要なく、あとで生コーディングする方法もあります。
キム代理が戦場の将軍だと仮定しましょう。戦争で勝たなければならないのは当然ではないですか。その状況に合った戦略、地上軍だけで制圧するのか。違います。私の意見では、ググるほうが速いこともありますし、もちろん人によって違いはありますが、GPTが良い場合もあるでしょう。AIは牛をさばくための刃物ではないかと思い、意見を申し上げます。
前半は共感できますが、後半の例は適切ではない気がします。
運動器具 = LLMではなく、運動補助器具 = LLMでしょう。つまり、運動するときに補助器具を使って体にかかる負荷を減らせば扱える重量は増やせますが、それによって自分の筋肉を増やしたり血液循環を円滑にしたりするといった運動効果は半減する、ということです。
不適切な例を挙げておいて「比喩や隠喩は理解しやすくするために使うものです。」と書くのは矛盾していますね。あなたのコメントを見る限り、これ以上コメントすることに意味はなさそうです。
ああ、はい。そのようにご理解いただければ大丈夫です。