20 ポイント 投稿者 GN⁺ 2025-12-18 | 3件のコメント | WhatsAppで共有
  • ほとんどの人は AIをコンテンツ生成ツール として使っているが、実際の強みは 膨大な情報を読み、結び付ける能力 にある
  • 個人のノート、会議記録、アイデアなど蓄積されたデータをAIが 消費し、パターンを見つけ出す過程 が核心
  • ObsidianノートとAIを連携 させ、過去の記録から洞察を抽出し、忘れていた思考の変化や繰り返された設計判断を発見
  • AIは キーワードではなく概念ベースの検索時間を超えたパターン探索アイデア同士の接続 を可能にする
  • 人間の競争力は経験にあり、AIはそれを 検索可能な知識資産 に変換して 継続的な学習と意思決定の向上 を支援する

創造の罠

  • ほとんどのユーザーはAIを メール作成、レポート生成、コード作成 などの生産性ツールとして使う
    • これは スーパーコンピューターをタイプライターとして使うような無駄 と表現される
  • 筆者は3年分のエンジニアリングノート、500件以上の会議記録、数千件の観察をObsidianに保存
    • 人間が一生かけても読み切れない量だが、AIはそれを数秒で消費 する

消費への転換点

  • AIをObsidianに接続した後、質問の仕方が 「新しいものを書いて」から「すでに発見していたことは何か?」 へと転換
  • 実例
    • 直近50回の1:1ミーティングのパターン分析 から、成果の問題がツールへの不満より2〜3週間早く現れていたことを発見
    • 技術的負債に対する思考の変化 を追跡し、2023年3月ごろに「修正対象」から「システム進化のための情報」へと見方が変わった時点を確認
    • Buffer APIとcarpeta.appのアーキテクチャ比較 で、12件の反復する設計判断を見つけ出した

知識の蓄積とアクセス性

  • あらゆる会議、思考、デバッグ体験は学びをもたらすが、検索できなければ無意味な知識 のまま残る
  • 従来の検索では 正確な単語を覚えていること が必要で、人間の記憶には限界がある
  • AIはこれを乗り越え、
    • 概念ベースのクエリ
    • 数年単位のパターン探索
    • 時間や文脈を超えたアイデアの接続 を可能にする
  • 人間の制約は創造ではなく、消費・記憶・接続能力の不足 にあった

消費システムの構築

  • シンプルな構成
    • すべての記録をObsidianに保存
    • AIが全データにアクセス
    • 過去の自分に リサーチアシスタントのように問いかける
  • 重要なのはツールではなく 思考様式の転換
    • AIを創造者ではなく 経験の読者 として認識すべき
    • すべてのノートが未来の洞察へ、すべての振り返りが 検索可能な知恵 へと変換される

複利効果

  • 2か月間の実験結果
    • 過去の類似事例を見つけて 問題解決の速度が向上
    • 忘れていた文脈を復元し 意思決定の質を改善
    • 時間の中に散らばっていた 見えなかったパターンの認識 が可能に
  • ほとんどの人は ノート、ファイル、記憶の中に埋もれた洞察という金鉱 を持っている
    • AIはそれを 問い合わせ可能な個人専門知識データベース へと変換する

真の革命

  • いまなお多くの人がAIを 文章作成・コード生成ツール としてしか捉えていない
  • 本当の革命は AIが人間のあらゆる思考を読む読者 として機能することにある
  • したがって今日の知識記録は 未来の自分とAIのためのドキュメント化行為 であるべきだ
    • 「忘れたことを思い出させるAI」のために 継続的に記録する習慣 が必要になる

3件のコメント

 
choijaekyu 2025-12-18

結局、テキストで行う回帰分析。

 
crawler 2025-12-18

> モデルは単体では平凡な読者レベルで、重要な部分を見落としがちだが、テスト・コンパイラ・リンターのようなツールと組み合わせると、高速なフィードバックループを持つ創造ツールに変わる

これはしっくりきますね。こうやって試したことはなかったので、やってみようと思います。

 
GN⁺ 2025-12-18
Hacker Newsの意見
  • 私は、AIの情報消費能力こそが最も恐ろしい側面の一つだと思う
    NSAや大企業はすでに何年にもわたって私たちのブラウジングパターンを収集してきたが、AIはそのデータを人間よりはるかに速く分析し、行動予測や操作、心理プロファイリング、脆弱性の特定などに活用できるのではないかと懸念している
    それなのに、一部の人がAIを役に立たない技術だと批判しているのを見ると皮肉に感じる

    • たとえAIが役に立たないとしても、こうした用途には依然として使われるだろう
      こういう仕事をする人たちに自信の錯覚を与えるからだ
    • 「Worthless」という表現は曖昧だ
      AIは無価値(valueless) ではあり得ても、無用(useless) ではない
      地雷も役には立つが価値はないように、生成AIにも外部性の観点から似たような議論がある
    • 実際、こうしたデータ分析は10年前のML技術でも可能だった
      生成AIが必須というわけではない
    • 超知能や創造性の議論よりも、私がより懸念しているのは監視社会化
      すでに都市は無数のカメラで覆われており、今は人間がすべての映像を監視できないことが一種の安全装置になっているが、AIはその壁を壊しうる
      近い将来には、「赤いNissanが通ったら知らせて」といった自然言語ベースの監視システムが登場しそうだ
    • 人間はあまりに複雑なので、NSAや企業のデータを使っても行動予測の精度は依然として低い可能性がある
  • モデルは単独では平凡な読者レベルだ
    重要な部分を見落としがちだが、テスト・コンパイラ・リンターのようなツールと組み合わせると、高速なフィードバックループを持つ創造ツールに変わる
    本当に難しいのは、依然として「何を主張するか」を決めることだ
    この内容はHackerNewsAIニュースレターにも掲載される予定だ

    • AIには、私たちの知らないガードレールが適用されている
      例えば太陽光エネルギーの話をしたら、政治的トピックと誤認されて会話が止められたことがある
    • Googleはすでにかなり前から特許とSEC文書を読んでインデックス化してきた
      分野によっては、弁護士より速く文書を読むシステムが存在する
  • AIが私のデータを数秒で読んだとしても、正確性の検証は不可能だ
    要約ではなく単なる短縮(abbreviation)にすぎないという研究もある
    例にある「50回の1:1ミーティングでパターンを見つけた」という結果も、実際には一部のデータにしか当てはまらないかもしれない

    • 関連する研究方法論を知りたい
      事実確認が難しい問題であるときにこそ危険だ
      LLMは探索ツールとして使い、洞察は人間が導き出すべきだ
    • 人間も完璧ではない
      AIが人間より少しでも優れているなら、それだけで十分価値がある
    • 検証はしばしば解決より速い
      AIが提示した項目をテキスト検索で確認すればよい
    • AIは大量処理ツール
      コンテキスト管理が重要で、完全な決定論でなくても有用だ
    • モデルに出典を明示させれば、盲信せずに使える
  • 私は個人文書をクラウドに上げるのに抵抗がある
    プライバシーリスクが大きすぎるので、ローカルLLMが発展するのを待っているところだ

    • 私も同じ理由でローカルモデルを使っている
      30BモデルくらいならMacBookでも要約できるが、まだ使い勝手はよくない
    • 私は漏れても構わない文書だけをアップロードしている
      NDAのあるビジネスなら、ローカルモデル以外は勧めにくい
      機材は高価だが、いずれPC中心のモデル実行環境に戻ると思う
    • Appleのmlx_lmでObsidianノートを分析している
      Qwen 3モデルも試したが、幻覚(hallucination) が多く実用的ではない
      SOTAモデルでも要約品質は似たようなものだと思う
    • 私は趣味でLLMを使っている立場だ
      GPUを3枚買ってローカルモデルを回しているが、ROIはまったく合わない
      ただ楽しいからやっているだけだ
      機密性の高いキーがないなら、小規模なクラウドGPUレンタルも悪くない選択肢だ
  • 文章の要点は、思考を機械に委ねることのように思える
    私はノートを記憶と関連性の中心として使っているので、AIに任せるのは考えることの放棄のように感じる

    • 逆に、AIは私たちの思考・ノート・経験を即座によみがえらせられる記憶装置でもある
      メールや過去のレポートに埋もれた知識を再び取り出してくれる点が便利だ
  • AIの「超能力」の半分は、すでにObsidianにすべてのデータを整理してあることのおかげだ
    その土台があるから、どんなツールでも強力になる

    • ほとんどの人はそこまで継続的に記録しない
      彼が努力の成果を得たのはすごいことだ
  • AIの本当の能力は、聞きたいことを言ってくれること
    特にRLHF以降、その傾向が強い
    要約能力はいまだに不足しており、ほとんどは要約ではなく短縮にとどまる
    LLMはテキストを書き継ぐのは得意だが、大局的な理解は苦手だ
    2023年に言われていた「指数関数的進歩」が本当だったなら、そもそもこんな議論すらなかったはずだ

  • 数学の講演中に分からない用語を検索したところ、AI要約がかなり良かった
    原文を再構成しただけだが、それこそまさに私が求めていた機能だった

    • ただし、要約の検証可能性が重要だ
      たいていの人は素早い消費を好み、深く理解しない
    • 私は低品質な要約でも、素早く概要を把握できるなら十分だと思う
    • 医学用語を検索したとき、Geminiが誤った情報と正しい情報を混ぜて提示してきた
      専門家でさえそのまま信じているのを見て怖くなった
      しかもGoogleが私のプロフィールにその疾患を関連付けたのではないかと気味が悪かった
  • AIが「JS SetはArrayより速い」と言うのを信じたあと、文脈の欠落のせいで誤りだったと気づいたことがある
    それでもAIは、不慣れなテーマの膨大な資料を総合するのには卓越している
    例えばLorcaやCavafyの詩を翻訳するとき、AIは原文と翻訳上の難しさをうまく説明してくれた
    直接翻訳を任せるより、補助ツールとして活用したときのほうがずっと良い結果を得られた
    詳しい経験は私のブログ記事にまとめてある