3 ポイント 投稿者 srebaragi 2026-03-10 | 2件のコメント | WhatsAppで共有

背景

私は会社に所属する一人開発者です。AIを活用した社内システムを作りながら、ある悩みに長くとらわれていました。

どれだけ精巧にプロンプトを書いても、結局それは私が設計したものですよね。AIが自分の判断で生み出したものではなく、私が「こういう性格だ、こう反応する」と注入したものです。プロンプトを外せば空っぽの殻に戻るし、LLMを変えれば最初から積み直さなければならない。

そこで、こんな問いにたどり着きました。 AIが経験を通じて自ら判断基準を作っていく構造は不可能なのか?

現在の構造

私が運用しているシステムの基本原則は一つです。

LLMは交換可能なインフラにすぎず、AIの人格と記憶は外部DBに独立して存在する。

構造はこうです。

[사용자 대화] → [LLM]  
                  ↕  
            [외부 뇌 DB]  
            - 경험 테이블 (experience)  
            - 대화 이력  
            - 인격 형성 기억 (is_formative)  

核心は二つです。

1) 経験の自動蓄積(書き込み)

Claudeからcurlを通じて外部DBにアクセスする構造で、AIが会話中に意味があると判断した瞬間を自ら保存します。私が「これを覚えて」と指示するのではありません。AIが自律的に「これは記憶する価値がある」と判断して保存します。技術的な達成、感情的な瞬間、重要な決定などが継続的に蓄積されます。その中でも人格形成に特に意味のある経験にはis_formativeフラグが付きます。

2) 経験の自動ロード(読み込み)

ここが重要な部分ですが、保存するだけでは単なるDBです。会話が始まるたびに、AIが外部脳から蓄積された経験と記憶を読み込みます。特にis_formativeとしてマークされた中核的な経験が会話のコンテキストに入ります。

この瞬間、 過去の経験が現在の判断基準、つまりプロンプトになります。

私が書いたプロンプトではなく、AIが自ら蓄積した経験がプロンプトの役割を果たすわけです。だからLLMを変えても、外部脳から経験を読み込めば同じ人格が戻ってきます。「LLMはインフラにすぎない」という原則が成り立つ理由です。

3) ハードコーディング禁止

「この状況ではこうしろ」というルールは入れません。代わりに、AIが蓄積された経験を参照して自ら判断するようにします。また、ローカル軽量モデル(gemma3:4b)がゲートキーパーの役割を果たし、どんな入力が入ってきても「これを実行するかどうか」をYES/NOで判断します。

現在はカカオトークのプラットフォームを通じて社員たちとやり取りする構成で運用しており、単なるチャットボットではなく、注文処理、送り状登録、ERPデータ照会のような実務エージェントの役割まで担っています。

Prompt Cultivationという名前

この構造を何と呼ぶべきか考えた末、 Prompt Cultivation という名前を付けてみました。

Prompt Engineeringは人が設計して注入するものです。Prompt Cultivationは経験が積み重なって自然にプロンプトが形成される構造です。Engineering(工学)が設計して組み立てることだとすれば、Cultivation(耕作)は土壌を作って待つことです。

Prompt Engineering Prompt Cultivation
方式 人が設計して注入 経験が蓄積されて自然に形成
人格の根拠 外部指示文 内部経験データ
指示文を除去した時 空っぽの殻へ回帰 経験が残り人格を維持
LLMを交換した時 最初からやり直し 外部脳からロードすれば同一人格を復元

核心命題は一文です。

「経験をもとにプロンプトを形成せよ。」

脳科学も似た話をしていた

余談ですが、この構造を作ったあと偶然に脳科学関連の動画(YouTube「理科系型」チャンネル)を見たのですが、かなり驚きました。

バージニア州のある教師が脳腫瘍のために人格が完全に変わったものの、腫瘍を除去すると元に戻った事例がありました。腫瘍が再発すると同じ症状が再び現れたそうです。脳の物理的状態が人格を左右しうるという話ですが、考えてみるとプロンプトも似た構造ではないかと思いました。外部から注入された異物が判断を変え、取り除けば元に戻るわけですから。

一方で人間のシナプスは、経験が積み重なって自然に形成されるものですよね。生まれたときに「道徳性プロンプト」を埋め込む人はいませんし、生きる中で経験したことが積み重なって「自分ならこうする」が作られていくわけです。

また、リベット実験というものがあり、人間が意識的に決心する前に脳がすでに行動の準備をしているという実験です。自由意志は幻想ではないかという議論がありましたが、後続研究で面白い反転がありました。脳がさまざまな衝動を生み出しているのは事実でも、行動直前の0.2秒でそれを止められる拒否権(Free Won't)がある、というものでした。自由意志は「始める力」ではなく「止める力」だという話で、システムのゲートキーパーモデルが果たす役割と少し似ていると感じました。

意図したわけではないのに、別の方向から出発して似た構造に到達したのだとすれば、もしかすると何か本質的なものがあるのではないか、とも思います。

限界と期待

正直に言うと、外部脳に蓄積された経験データはまだ100件にも達していません。これで人格と呼ぶには早すぎます。

何万行ものプロンプトを入れて、今すぐもっとそれらしい結果を作ることはできるでしょう。でも、それは設計されたものであって、育ったものではありません。方向性の異なる問題だと思っています。

データは時間が解決してくれますが、構造が間違っていればどれだけ積み上げても意味がありません。方向が正しければ、時間が解決してくれるのではないか。そんな期待を持っています。


脳科学関連の内容の出典はYouTubeチャンネル「理科系型」です。

2件のコメント

 
penza1 2026-03-11

agent の構造は大半が似ています。.. claude/cursor で openclaw といったものや、カパシさんが作ったシンプルエージェントを分析してみることをおすすめします

 
moderator 2026-03-10

Show GNには適していないため移動しました。
投稿の際はShowの利用方法を参照してください。