6 ポイント 投稿者 GN⁺ 2025-06-28 | 3件のコメント | WhatsAppで共有
  • MITの研究で、ChatGPTを使用したグループは脳活動が相対的に低いことが示された
  • 人工知能の活用は創造性と多様性の低下、成果物の画一化現象を招く
  • Cornell大学の研究でも、文化的・個人的差異を反映した文章でさえ、AI使用時には西洋的で平均的な傾向へ収束することが確認された
  • AIが提示する平均的で安全な回答が、文化的多様性と個性の弱体化を引き起こす
  • 大衆化したAIがもたらす長期的な影響はまだ十分に分かっていないが、思考の単純化と画一化が主要な懸念として浮上している

実験と主な発見

  • 2023年、MITではボストン近郊の大学生50人余りを3つのグループに分け、SAT形式のエッセイ作成実験を行った
    • 1つのグループは自分のだけを使用
    • 2つ目のグループはGoogle Searchの利用が可能
    • 3つ目のグループはChatGPTを使ってエッセイを作成
  • すべての参加者は脳波測定用ヘッドセットを装着し、分析の結果、ChatGPT使用グループの脳活動が最も低調であることが分かった
    • このグループでは、脳の複数部位間の**結合性(アルファ波およびシータ波)**の低下が観察された
    • 一部の利用者は自分が書いたエッセイに対して所有感の欠如を示し、多くは自分が書いた内容を引用することさえできなかった
    • MITの研究チームはこれをAI依存による認知的コストと名付けた

AIが引き起こす思考の平均化

  • ChatGPTを活用したグループのエッセイは、似通った単語とアイデアへ収束する傾向を示した
    • 幅広い回答を促すSATのプロンプトにもかかわらず、AI使用グループは画一的な論理と語彙の使用を見せた
    • たとえば、「真の幸福」への回答はどれもキャリアと成功中心で、「寄付の道徳的義務」には一様に賛成の立場だけが示された
  • MITのKosmyna研究員の表現によれば、「すべてが平均へと集められる」現象が見つかった

大衆的・文化的多様性の弱体化

  • Cornellの研究チームは、米国とインドの利用者がそれぞれ文化的背景を反映して文章を書く実験を行った
    • 一部はChatGPT連携の自動補完を使用し、一部は使用しなかった
    • 自動補完を使うと、参加者の文章が西洋的で平均的な傾向へ収束し、互いに似通うことが確認された
    • 食べ物や祝日に関する質問では、ピザとクリスマスが定番の回答となり、地域的な差別化は乏しかった
    • エッセイの細部描写や雰囲気さえもありふれた言い回し中心へと変化した

AIツールの提案効果とアイデンティティ低下

  • 筆者は、AIの提案機能が書き手の自分の声を弱める「催眠効果」を持つと説明する
    • 継続的な露出によって、文章を書く自信やアイデンティティを失う可能性が懸念される
    • AIの提案は利用者の考えだけでなく、思考様式そのものまで平均化する役割を果たす
    • 結果として、「何が普通で望ましいのか」に関する社会的認識にも変化をもたらす可能性を含んでいる

産業的動因と文化的標準化

  • OpenAIおよびAI開発企業は、より多くの利用者が一般的で平均的な成果物に満足するようシステムを設計している
    • 誰かに受け入れられるモデル出力を提供するほど、より多くの有料利用者を獲得できる
    • 効率性の観点では、「すべてが同じであるとき」にスケールメリットを実現できる

AIと創造性:実験上の限界

  • OpenAI CEO Sam Altmanらは、AIによって誰もが創作者になれると主張する

  • しかし実験では、AI使用グループは独創性の面で、むしろ平均的で似たアイデアを出す傾向が把握された

    • Santa Clara大学の研究では、ChatGPTと既存の創造性ツール(Oblique Strategies)を比較した
    • ChatGPT利用者のアイデアは意味的類似性、すなわち画一化傾向を示した
  • 実験分析者のMax Kreminskiによれば、人間の原初的な思考は徐々にAIの平均値の側へ引き寄せられている

    • 繰り返しAIが「十分に妥当な回答」を素早く出すため、利用者は自分のアイデアよりもAIの成果物の選別に没頭するようになる
    • 会話が長くなるほど、AIのコンテキストウィンドウの限界によって、より反復的で平均的な回答が強化される

大衆化したAI環境と情報の多様性不足

  • 研究の多くは小規模な実験だが、AIの長期的な影響はいまだ未知数である
  • MetaのAIアプリなどでは、多くの人が作った過度に滑らかで画一的なコンテンツが大量生成されている
    • 自動メールや日常的な依頼などで、画一化されたフォーマットと語彙があふれている
    • 実際のプロンプト例でも、AIは前向きな未来ばかりを列挙し、否定的なシナリオやリスクは排除していた
    • これはAI設計過程における親技術的バイアスが成果物の多様性低下につながりうることを示唆する

結論と展望

  • 誰かがAIの示した情報だけを信じようとするなら、思考を止めることが必要になる
  • AIが生み出す思考の平均化と創造性の弱体化という現象に対し、社会的・文化的な警戒の必要性が高まっている

3件のコメント

 
zihado 2025-06-30

インターネットが最初に出てきたときも、似たような問題があった気がします。批判的思考を養う力のほうが、より重要なのではないでしょうか。

 
mango 2025-06-30

インターネット検索やYouTubeで誤った情報を受け入れるよりは、まだましな気がします。特定の集団の利益を代弁することを目的とした偏った情報を受け入れるよりはよいと思います。AIも偏っているのではないかと言えるかもしれませんが、インターネット上に出回っている無作為な情報の平均的な信頼性よりは高いと思います。批判的な思考がなければ誤った情報を受け入れてしまうという点でも似ています。

 
GN⁺ 2025-06-28
Hacker Newsの意見
  • 最近になって、本当の「デジタル格差」は、ここ数年のうちにすでに批判的思考力を身につけていたかどうかで分かれているのではないかと思う。多様な読書と忍耐強い熟考によってこうした力を築いた人にとって、LLMのようなツールは、荒々しい情報の海でウェーブランナーに乗るための鍵を渡してくれるような感覚がある。だが、いままさに批判的思考を学ぶ必要がある人たちは、LLMを習慣的に頼らずに内省の苦しさを乗り越えるのは難しい気がする。曖昧さに自分で耐える行為、つまり情報が知識へと変わる瞬間が、ここでは即座に解消されてしまう。2023年以前にこうした能力を獲得できていてよかったと思う一方で、若い世代にLLMを無条件に学習ツールとして与えている現実には少し恐ろしさを感じる

    • AIがみんなを馬鹿にするという悲観論は、実際には大多数の人がもともとそれほど批判的思考に優れていないという現実を過大評価しているのだと思う。20年近く高度なエンジニアリング分野で働いてきたが、複雑な概念を本当に理解している人は、熟達した専門家のあいだでも稀だった。もともと批判的に考えていなかった大多数の人に簡単な答えが提供されたとしても、賢い人たちが損をすることはないだろうと思う

    • 子どものころの自分を思い返すと、短期的な楽しさばかり追いかけていたときは何も学べなかった経験がある

    • Idiocracy(低能社会)の時代が近づいている気がする

  • あらゆる接続技術は、同質化を促進する力だと思う。たとえばTVは、地域方言の消滅を招いた代表的な例だ。無限の楽しさ、娯楽、つながりによって、悲しく、退屈で、孤独な世界を作りつつある

    • 地域方言がなくなったという根拠が気になる。アメリカのあちこちを旅行すると、今でもさまざまな地域アクセントを耳にする。西部、中西部、南部、東部に親戚がいるが、各地域ごとにはっきりしたアクセントが残っている。強弱の差はあるが、今でも十分に明確だ

    • すでにソーシャルメディアが私たちの考え方をかなり同質的なものにしている。あまりにも多くの情報と視点が一度に流れ込んでくるので、自分で意見を形作るより、他人の考えに触発されなければ耐えられない。upvoteボタンが、みんなが同意する考えを簡単に決めてしまう

    • 私たちはどうすればいいのかと考えてしまう。オフラインクラブ[https://theoffline-club.com/]のような真剣な試みが解毒剤… Hacker News でも出ていた。いわゆる「grass touching」技術についての議論だ

    • それでも、地理的環境がもたらす多様性が、ある種の経験を規定している。もちろん最近の技術の目的のひとつは、こうした地理的特色を相殺したり遮断したりすることにあるのだが

    • AIの場合の問題は、まさに誰がその同質性を管理し、どんな目的でそれを行うのかという点だ。IRCやメッセンジャーのような動的システムは、人々が自然につながり、集団を形成できるようにする。だがAIは、資金力のある資本家が資本を投じて作った閉鎖的な管理ツールであり、結局はビジネスモデルを守り、リスクを減らすための同質化が暗黙のうちに進む。本当の脅威は、現実が特定の目的に合わせて「著作」されてしまうことだ

  • 自分で考えない場合にのみ、自分の思考は同質化するという立場だ。これは多くの人にとって弱点になりうると思う

    • 「自分で調べる」タイプの人たち同士が、逆説的に最もひどい集団思考に陥ることがあるという指摘

    • 類似した構造の公理体系を持つ多数の個人は、似たような結論を導く。ある人たちは、自分が特定の思想集団に属しながらも、自分で主体的に考えていると信じている。共同体の成員同士の思考が似ていく力は強いことがある。一方で、未知のミーム空間から新しい戦略やアイデアを発掘する「宝探し戦略」を取る人もいる。こうした戦略にはリスクが高く、何度も試せるだけの資源が必要だという限界もある

    • 「自分で考えなければ同質化する」という主張には同感で、非技術系、あるいは技術に不慣れな友人や家族がChatGPTをどう使っているか、一度確認してみることを勧めたい。実際、かなり衝撃的な例が多い。LLMツールに詳しくない人たちが、本当に危うい使い方をしている。たとえば、友人の義兄はChatGPTから、さまざまなペニー株や無名の暗号資産で莫大な利益が保証されるという話を聞かされ、実際に投資までしていた。ChatGPTが神の声を伝えていると信じ、妙な行動に出る人もいる。商用LLMは十分にもっともらしく振る舞うため、このツールの仕組みを知らない人は惑わされやすい。自分はLLMの出力で明白な誤りを経験したことがあるので疑う姿勢が身についたが、客観的な判断が難しい人は、そのまますべてを信じてしまう危険が大きい

  • MIT Media LabのNataliya Kosmynaによる研究では、ボストンの大学生50人余りを3つのグループに分けて実験した結果、ChatGPTを使ったグループは他の集団より脳活動、特に創造性や作業記憶に関連するアルファ波・シータ波の結合性が著しく低かったという。だが、このようなn数の少ないfMRI研究が本当に信頼できる科学的結果なのか疑問だ。むしろ確証バイアスに依存した見せびらかし的な結果かもしれない

  • 最近の誇張された「破局予言」記事が、人々の考えをあまりにも画一化している。こうした主張にも確かに一理あるが、実際にはもっとずっと微妙な部分が多い

  • TV、ソーシャルメディア、印刷機など、過去のメディア技術の変化を見れば、似たようなメディア恐怖が繰り返されてきた歴史がある 関連記事

    • マスメディアは私たちの入力(情報消費)を同質化する。AIが既存メディアと異なるとすれば、私たちの出力(生産物)まで直接的に同質化できる点も考える必要がある

    • 印刷術以前は、世界の人々が80億通りの異なる会話をしていたのだろうが、印刷術によって多様な小規模集団が次第に大きくなり、より広い範囲で同じ会話を交わすようになった

  • SNS、TV、ハリウッド、そして全般的な大衆文化もまた、社会を同質化させる役割を果たしている

  • 中心極限定理(central limit theorem)は一貫して働く、という意見だ

  • 結局のところ、私たちは同質化された巨人たちの肩の上に立つ運命なのだろう

  • 大学で人文系を学んでいたとき、論文を参考にして自分のアイデアとして貼り付け、つなぎ合わせていたやり方は、今のAIがしていることとそれほど変わらないと思う。結局、AIが自分の知的補助具になるかどうかは、それぞれの基準と認識にかかっている問題だ