- ほとんどの人は AIをコンテンツ生成ツール として使っているが、実際の強みは 膨大な情報を読み、結び付ける能力 にある
- 個人のノート、会議記録、アイデアなど蓄積されたデータをAIが 消費し、パターンを見つけ出す過程 が核心
- ObsidianノートとAIを連携 させ、過去の記録から洞察を抽出し、忘れていた思考の変化や繰り返された設計判断を発見
- AIは キーワードではなく概念ベースの検索、時間を超えたパターン探索、アイデア同士の接続 を可能にする
- 人間の競争力は経験にあり、AIはそれを 検索可能な知識資産 に変換して 継続的な学習と意思決定の向上 を支援する
創造の罠
- ほとんどのユーザーはAIを メール作成、レポート生成、コード作成 などの生産性ツールとして使う
- これは スーパーコンピューターをタイプライターとして使うような無駄 と表現される
- 筆者は3年分のエンジニアリングノート、500件以上の会議記録、数千件の観察をObsidianに保存
- 人間が一生かけても読み切れない量だが、AIはそれを数秒で消費 する
消費への転換点
- AIをObsidianに接続した後、質問の仕方が 「新しいものを書いて」から「すでに発見していたことは何か?」 へと転換
- 実例
- 直近50回の1:1ミーティングのパターン分析 から、成果の問題がツールへの不満より2〜3週間早く現れていたことを発見
- 技術的負債に対する思考の変化 を追跡し、2023年3月ごろに「修正対象」から「システム進化のための情報」へと見方が変わった時点を確認
- Buffer APIとcarpeta.appのアーキテクチャ比較 で、12件の反復する設計判断を見つけ出した
知識の蓄積とアクセス性
- あらゆる会議、思考、デバッグ体験は学びをもたらすが、検索できなければ無意味な知識 のまま残る
- 従来の検索では 正確な単語を覚えていること が必要で、人間の記憶には限界がある
- AIはこれを乗り越え、
- 概念ベースのクエリ、
- 数年単位のパターン探索、
- 時間や文脈を超えたアイデアの接続 を可能にする
- 人間の制約は創造ではなく、消費・記憶・接続能力の不足 にあった
消費システムの構築
- シンプルな構成
- すべての記録をObsidianに保存
- AIが全データにアクセス
- 過去の自分に リサーチアシスタントのように問いかける
- 重要なのはツールではなく 思考様式の転換
- AIを創造者ではなく 経験の読者 として認識すべき
- すべてのノートが未来の洞察へ、すべての振り返りが 検索可能な知恵 へと変換される
複利効果
- 2か月間の実験結果
- 過去の類似事例を見つけて 問題解決の速度が向上
- 忘れていた文脈を復元し 意思決定の質を改善
- 時間の中に散らばっていた 見えなかったパターンの認識 が可能に
- ほとんどの人は ノート、ファイル、記憶の中に埋もれた洞察という金鉱 を持っている
- AIはそれを 問い合わせ可能な個人専門知識データベース へと変換する
真の革命
- いまなお多くの人がAIを 文章作成・コード生成ツール としてしか捉えていない
- 本当の革命は AIが人間のあらゆる思考を読む読者 として機能することにある
- したがって今日の知識記録は 未来の自分とAIのためのドキュメント化行為 であるべきだ
- 「忘れたことを思い出させるAI」のために 継続的に記録する習慣 が必要になる
3件のコメント
結局、テキストで行う回帰分析。
> モデルは単体では平凡な読者レベルで、重要な部分を見落としがちだが、テスト・コンパイラ・リンターのようなツールと組み合わせると、高速なフィードバックループを持つ創造ツールに変わる
これはしっくりきますね。こうやって試したことはなかったので、やってみようと思います。
Hacker Newsの意見
私は、AIの情報消費能力こそが最も恐ろしい側面の一つだと思う
NSAや大企業はすでに何年にもわたって私たちのブラウジングパターンを収集してきたが、AIはそのデータを人間よりはるかに速く分析し、行動予測や操作、心理プロファイリング、脆弱性の特定などに活用できるのではないかと懸念している
それなのに、一部の人がAIを役に立たない技術だと批判しているのを見ると皮肉に感じる
こういう仕事をする人たちに自信の錯覚を与えるからだ
AIは無価値(valueless) ではあり得ても、無用(useless) ではない
地雷も役には立つが価値はないように、生成AIにも外部性の観点から似たような議論がある
生成AIが必須というわけではない
すでに都市は無数のカメラで覆われており、今は人間がすべての映像を監視できないことが一種の安全装置になっているが、AIはその壁を壊しうる
近い将来には、「赤いNissanが通ったら知らせて」といった自然言語ベースの監視システムが登場しそうだ
モデルは単独では平凡な読者レベルだ
重要な部分を見落としがちだが、テスト・コンパイラ・リンターのようなツールと組み合わせると、高速なフィードバックループを持つ創造ツールに変わる
本当に難しいのは、依然として「何を主張するか」を決めることだ
この内容はHackerNewsAIニュースレターにも掲載される予定だ
例えば太陽光エネルギーの話をしたら、政治的トピックと誤認されて会話が止められたことがある
分野によっては、弁護士より速く文書を読むシステムが存在する
AIが私のデータを数秒で読んだとしても、正確性の検証は不可能だ
要約ではなく単なる短縮(abbreviation)にすぎないという研究もある
例にある「50回の1:1ミーティングでパターンを見つけた」という結果も、実際には一部のデータにしか当てはまらないかもしれない
事実確認が難しい問題であるときにこそ危険だ
LLMは探索ツールとして使い、洞察は人間が導き出すべきだ
AIが人間より少しでも優れているなら、それだけで十分価値がある
AIが提示した項目をテキスト検索で確認すればよい
コンテキスト管理が重要で、完全な決定論でなくても有用だ
私は個人文書をクラウドに上げるのに抵抗がある
プライバシーリスクが大きすぎるので、ローカルLLMが発展するのを待っているところだ
30BモデルくらいならMacBookでも要約できるが、まだ使い勝手はよくない
NDAのあるビジネスなら、ローカルモデル以外は勧めにくい
機材は高価だが、いずれPC中心のモデル実行環境に戻ると思う
Qwen 3モデルも試したが、幻覚(hallucination) が多く実用的ではない
SOTAモデルでも要約品質は似たようなものだと思う
GPUを3枚買ってローカルモデルを回しているが、ROIはまったく合わない
ただ楽しいからやっているだけだ
機密性の高いキーがないなら、小規模なクラウドGPUレンタルも悪くない選択肢だ
文章の要点は、思考を機械に委ねることのように思える
私はノートを記憶と関連性の中心として使っているので、AIに任せるのは考えることの放棄のように感じる
メールや過去のレポートに埋もれた知識を再び取り出してくれる点が便利だ
AIの「超能力」の半分は、すでにObsidianにすべてのデータを整理してあることのおかげだ
その土台があるから、どんなツールでも強力になる
彼が努力の成果を得たのはすごいことだ
AIの本当の能力は、聞きたいことを言ってくれることだ
特にRLHF以降、その傾向が強い
要約能力はいまだに不足しており、ほとんどは要約ではなく短縮にとどまる
LLMはテキストを書き継ぐのは得意だが、大局的な理解は苦手だ
2023年に言われていた「指数関数的進歩」が本当だったなら、そもそもこんな議論すらなかったはずだ
数学の講演中に分からない用語を検索したところ、AI要約がかなり良かった
原文を再構成しただけだが、それこそまさに私が求めていた機能だった
たいていの人は素早い消費を好み、深く理解しない
専門家でさえそのまま信じているのを見て怖くなった
しかもGoogleが私のプロフィールにその疾患を関連付けたのではないかと気味が悪かった
AIが「JS SetはArrayより速い」と言うのを信じたあと、文脈の欠落のせいで誤りだったと気づいたことがある
それでもAIは、不慣れなテーマの膨大な資料を総合するのには卓越している
例えばLorcaやCavafyの詩を翻訳するとき、AIは原文と翻訳上の難しさをうまく説明してくれた
直接翻訳を任せるより、補助ツールとして活用したときのほうがずっと良い結果を得られた
詳しい経験は私のブログ記事にまとめてある