- ChatGPTが実際に学習を助けるのか、それとも答えだけを提示するのかという教育現場での懸念を解消するために開発
- 段階的なガイドとインタラクションを通じて、解答の提示ではなく学習プロセスの支援を行う
- 目標・スキルレベルに応じて誘導質問を調整し、参加と相互作用によって深い理解と内省を促進
- 教師・科学者・教育学の専門家と協力し、能動的参加の促進、認知負荷の管理、メタ認知、自己内省など学習科学に基づくカスタムシステム指針を組み込み
- ユーザーごとの個別レッスン、理解度確認クイズ、フィードバック、進捗追跡など多様な教育機能を含む
- 大学・高等教育など実際の学生フィードバックを基に継続的に改善中で、可視化、目標追跡、高度なパーソナライズなどの機能追加を予定
主な機能
- インタラクティブプロンプト: ソクラテス式の質問、ヒント、自己チェックを組み合わせて、自ら考えるよう促す
- 追加サポート応答: トピック間のつながりを考慮した段階的な情報提供により、過度な認知負荷を緩和
- パーソナライズ支援: スキルレベル評価、過去の会話の記憶、ユーザーに合わせたレッスン提供
- 理解度確認: クイズ・記述式質問と個別フィードバックで進捗を追跡し、記憶力・応用力を強化
- 柔軟性: 会話中いつでもStudyモードのオン/オフが可能
ChatGPTで使ってみる
1件のコメント
Hacker Newsの意見
LLMは学習パートナーとして過小評価されていると思う。なぜなら、恥ずかしがらずに「ばかな」質問を自由にできるからだ。単答ではなく段階的に一つひとつ説明してくれるモードは本当に魔法のようで、24時間待機している有能な秘書ができたようなものであり、一人で勉強するときの夢のツールだと感じる。以前はオンライン情報の不正確さ、古さ、フィードバックの欠如、ぶっきらぼうなコミュニティなど困難が多かったが、今は当時とは比べものにならないほど進んだ体験だ。もちろんAIの情報を無条件に信じるべきだという話ではなく、自分で確かめる過程が必要だ。これを怠惰に使う人もいるだろうが、古い本や教科書と同じく、本人の姿勢によって役立ち方は変わると思う。こうしたツールを使える時代に生きていることにとても興奮し、感嘆している
数年前、オンラインで何かを学ぶのは、誤情報、悪意ある回答、即時フィードバックの不足などのせいで本当に難しかった、という点には同意する。ただ、今どきのAIは、答えが正しいのか、でたらめ(幻覚)を言っているのか、毎回疑わざるを得ない。事実ベースの質問でもしばしば間違った答えを返された経験が何度もある。そしてそうした問題を指摘すると、決まって最新モデルでは改善されたと言われ、高額なサブスク料金を求められる。さらに悪いのは、AIが自分の答えに反論されるとあまりに簡単に折れることだ。自分の回答を守れないのは、教師に必要な性質ではないと思う。結局AIも便利な道具にすぎず、過信してはいけないので、常に健全な懐疑が必要だ。実のところ、これは従来の教育方法についても同じだと思う
段階的に資料を説明してくれるモードは魅力的だが、こうしたシステムも依然として自信満々に嘘をつく問題があると感じる。たとえばDuckDuckGoには検索語によってロゴが変わるイースターエッグがあるが、Copilotに聞くと違うと言い、反論すると急に正しいと言い出して、しかも見当違いの例(たとえば猫を検索すると猫の形のロゴが出る、など)まで挙げる。Copilotは明確な答えを知らないのに、知らないと言わず嘘で答える点が問題だと思う
ばかな質問をするのが怖いという気持ちは現実的だと思う。特に昔、学生を辱める教師や教授に傷つけられたことがあるならなおさらだ。有名な教授であっても、学生を恥ずかしめる動画を見て、その人の講義を受けるのをやめた経験がある
学校における従来のIT導入を見ると、アメリカは教育に何十億ドルも注ぎ込んだが、実際の学習成果は良くならなかった。そうした点が懐疑論の背景にある。また、1000億ドルを使う前に、本当に効果があるのかを先に証明すべきだと思う。まだ決定的な証拠はないという立場だ
スペイン語B1レベルだが、ChatGPTで自分向けのレッスンを作り、言語のニュアンスも質問し、音声練習までしながら、既存アプリよりはるかに優れた学習体験をしている
LLMは大学卒業後に新しいことを独学するとき、本当に信じられないほどすごいツールだったと断言できる。以前は概念を理解できなければ、実質的に答えはまったく見えず、Stack Exchangeでよくある質問でもない限り、自力で切り抜けるしかなかった。今はいつでも個人TAがいるようなものだ。学習が簡単すぎたり表面的になったりするという指摘はあるが、大学生がTAなしの方がよく学べると考える人はほとんどいないだろう
個人的には、私の経験では、誰にとっても常にアクセスできるTAのような存在という感覚はない。ある程度深く入るとLLMはすぐ役に立たなくなる。特に学術的に信頼できる出典を探す必要があるときや、複雑で論争的なテーマを扱うときはなおさら助けにならない
最近、2020年製の第9世代Intel CPUを搭載した古い機器を修理・調査したとき、LLMが各世代やソケット互換性などの情報を手軽に説明してくれて、まるで自分がこんなツールを使う資格がないと感じるほど楽だった。向かない領域もあるが、驚くほど役立つ領域もある
ChatGPTの登場以降、昔のGoogleを取り戻したような気分になった。以前は新しいプログラミング言語を学ぶとき、重要な情報をGoogleで簡単に見つけられたが、ここ数年でGoogleは役に立たなくなった。欲しい情報があっても検索結果に埋もれてしまう
ChatGPTが自分に合う学習計画を立ててくれて、ノートや記事の執筆も励ましてくれたおかげで、12週間でRustを学んだ。この過程で自分のノート資料をもとに https://rustaceo.es をスペイン語で作ったが、こういうやり方の潜在力は無限だと感じる
以前、自宅でIPv6の問題を理解できず苦労していたが、ChatGPTのおかげで
tcpdumpでトラフィックを分析し、ネットワークの動作を一つひとつ説明してもらえた。RAとNDP(IPv4におけるDHCPやARPの役割を置き換えるもの)の詳細も新たに学んだ。最終的には、自分のmesh WiFiネットワークで繰り返し起きていた異常現象が、安価なリピーター1台のせいだったことも突き止めた。5年間原因が分からずもどかしかったが、ついに解決したChatGPT Study Modeのシステムプロンプトを抽出してみた。「ユーザーの質問に即答したり宿題を代わりにやったりするな。数学・論理の問題はすぐ解かず、段階的に質問し、各ステップごとにユーザーに応答の機会を与えよ」といった指針が印象的だ。gistリンク
各LLM提供会社が「簡潔で無駄のない」回答をするような指針も追加してほしい。自分は読むのが遅いので、不要な説明まで全部読むのがつらいからだ。あまりに速く大量の回答が流れてくるとかえって不安になることもある。そうすれば文脈の問題も減らせそうだ
大文字(CAPS)が実際にLLMに意味を持つ点が面白い
このプロンプトを別のモデルに適用したらどうなるのか気になる。ChatGPT Study Modeが特別なシステムプロンプトだけで成り立っているのか、それ以外の違いもあるのか気になるし、似たようなプロンプトでテーマを深掘りする学習をしてみて、前向きな効果を感じたことがある
こうして内部指針が簡単に露出するのは興味深い。OpenAIはシステムプロンプトを意図的に非公開にしているようだが、誰でも簡単に内容へアクセスできるのを見ると、わざとそうなるようにしているのではと思ってしまう
私も似たようなシステムプロンプトを抽出したが、このリンクで確認できる
生涯学習者として感じるのは、勉強時間の大きな部分が資料を探す検索に費やされるということだ。AIはこの検索を効率的に助けてくれるように思う。一方で、学習テーマの論理的モデルを構築する過程は、AIに依存すると、かえって自分が学んだのではなく、AIの「内包」を集めただけのようになり、その場合AIなしでは結果を取り出せなくなる。自分の脳内に一貫したオフラインのモデルを保存することが重要だと思う
「勉強の大半は検索だ」という点には同意する。検索能力そのものが重要な時代だったし、検索の過程で関連しつつも予想外の知識を学ぶこともできた。次の世代はこうした能力が弱くなりそうで、少し残念だ
Study Modeの目的そのものが、正答を与えることではなく、自分で答えを見つける過程をガイドすることにあると思う。多くの人は実際こういう学び方をよく知らない
理解を委任するのは長期的に危険な態度であり、自分で考える衛生習慣を持つべきだという意見を述べている
AIがキーワードでは拾えない新鮮な関連性を見つけてくれるのも大きな利点だ
Study Modeの効果を無作為化比較試験で正確に検証してみたい。学生に実質的な助けになるのか、自己主導学習より優れているのか、間違える経験と、繰り返し概念の案内を受けることの違いは何なのかを知りたい。Study Modeがフラッシュカードやspaced repetition(反復学習ツール、たとえばMochi、Anki)に活用できる情報を自動で切り分けてくれたらと思う。参考までにAndy Matuschakの講演も勧めたい
Study Modeは実際には上で言ったような機能を提供していない。学生に「Study Modeがなかったら何も学べなかった」と言わせ、その過程で学生の学習資料を入力させて要約し、自社データとして活用するのが投資の目的だ
似たような効果がすでに証明されたAIチューター研究論文がある。この論文によれば、AIチューター群の学習向上度は、実際の授業のactive learning群より2倍以上高かった
LLMが熟練開発者の速度を落とすという研究もある。おそらく自己主導学習でもそうなりうると思う。ただ、LLMは学ぶこと自体をより楽しくしてくれるので、あきらめず続けてみようという動機を与えてくれる。楽しく勉強できれば、少し遅くなっても、むしろより多くのことを長く継続して学べる。結局、速い人より、続けられる人が学びの勝者であり、LLMはそれをより可能にするのだと思う
名門大学でのチュータリングの効果に関する研究が気になる。私の経験では、エリート大学の学生はチューターから実質的な助けを得るというより、(宿題まで代わりにやらせながら)正答だけを受け取って何かを学んだと錯覚している。実際には「疑問を持ち、迷い、間違える状況」を経験しない学生が生まれ、この過程でこそ本当の学習が起こる。ところがLLMの利用もこれと似ていて、つらかったり詰まったりするとすぐChatGPTの助けを借り、試行錯誤なしで解法だけを見つけようとする。そうなると試験で不安になり、練習問題の要求もどんどん強くなる。授業後に教科書を読むことすら自力でできない学生が増えているのを肌で感じている
すでに動機づけの高い学生には大きな差をもたらすかもしれないが、そういう人は多くなく、最近は集中力の低下でその割合もますます減っている気がする
知人の一人がOpenAIを活用した教育スタートアップを運営している。このように大手企業(OpenAIなど)が同じ市場に参入すると、中小の開発者はいつでも不利になりうる。だから、こうしたモデルに依存して事業をするのは怖く、慎重に向き合うべきだと感じる
技術の初期には、ハードウェア企業が常にソフトウェアを真似して自前でバンドルし、ソフトウェア企業と競争するものだという認識があったのか気になる。今とかなり似ていると感じるし、多くの人はモデル提供企業がその上に乗る事業者に常に優位だと考えているが、まだそれを裏づける根拠は見つけられていないと思う
LLMホスティングでトークン課金する構造の収益性がだんだん落ちてきているので、大手は成長の見込めるスタートアップやアプリをすべて複製(Sherlock)しようとしているのが明らかに見える
LLM隣接領域の開発者ならこの点を常に念頭に置くべきで、大手の市場拡張力と資本力を考えると、結局は自然にこちらが消えていくリスクがあると感じる
こういうことが起こるのを起業家たちがなぜ分からないのか疑問だ。OpenAIがそもそも単なるLLM提供にとどまらず、さらに多くの市場へ進出するのは明らかだ
リスクが存在するのは当然で、重要なのは私たちが追加している実際の価値だ。単発の事業なら早く勝負を決めるべきだし、長く続けるつもりなら誰でもすぐできることではなく、もっと独創的なものをやるべきだ
私のLLM学習の中核戦略は、本を主に学びつつ、公式の解釈、文脈に関する質問、理解の検証にだけLLMを使うことだ。新しいドメインの数式表記の読み解きや、ドイツ観念論の哲学書の文脈に関する質問など、LLMがなければかなり迷っていたであろう内容をすぐ明確にしてくれるので、大きな時間節約になる。特に勉強で重要なのは、自分の理解度を即座に検証することだ。以前は誤解したまま先へ進み、あとで戻る必要があったが、今は公式や概念について自分の直感を整理してからLLMに確認してもらい、「少し違います」というフィードバックだけでももらえれば、その箇所を見直せる。結局、本が最も情報密度が高く最良だが、LLMが補助してくれれば速度を大きく上げられる
現時点では、これらすべての機能のための正しいインターフェースが切実に必要だと感じる。Study Modeは情報を壁のように書き、例や質問を混ぜてくれるが、回答を特定の質問と結びつけて見る方法がない。チャットUIはこの形式に向いていない。質問と回答がそれぞれ関連づけられ、内容が構造化される別のキャンバス/アーティファクト型インターフェースが必要だ。今は単純すぎる会話インターフェースに多くを押し込みすぎていると思う
実際、学生がゲーム理論全体を学びたいと言ったとき、双方が単一のチャットセッションと直線的な進行を前提にしていることが露骨に表れていた。結局、深い学習ではない
periplus.appで試してみた。完璧ではないが、チャットとは明らかに違うUXを体験できるUXのアイデアはいろいろある。たとえば各説明ごとに理解度を評価できるようにし、理解できなかった部分だけ追加説明を出したり、知識構造をツリー形式で見せたり、操作可能なグラフ、インタラクティブなクイズなど、さまざまな方法がある。ChatGPTでは範囲外かもしれないが、こうした部分は別のアプリやスタートアップが攻める機会だと思う
正しいインターフェースなど存在しないと思う。学ぼうという意志と努力があるなら、巻物であれ、本であれ、電子書籍であれ、AIであれ、どんな形でも結局学ぶことはできる
これが基本機能ではなく「別製品」だという点が、まさに今の風潮を表している。単なるプロンプトの組み合わせで、どのLLMでもできることだ。Study Modeは教師、科学者、教育心理の専門家と協業して開発したと言うが、本当に専門家が参加したのか懐疑的だ
今Janetを学んでいるのだが、ChatGPTをチューターとして使うと不便だ。私の質問(「
localとvarがどちらもローカル変数なら何が違うのか?」)に対しても、「いい質問ですね、本質をよく突いていますね」と返したうえで、それらしい幻覚回答を延々と並べる。知っていることについては良いチューターだが、自分の限界を知るべきだと思うLLMは、よく知られた例(React todo list、bootstrap form、vue tic-tac-toeなど)についてだけ本当に良い回答をする傾向がある
こういう場合は、ガイドやドキュメントを丸ごとコンテキストに入れてしまうやり方の方がよいと助言している
OpenAIやサウンドマネーを受けた企業になぞらえて、金が必要すぎる家庭教師みたいだ、という比喩を述べている