14 ポイント 投稿者 GN⁺ 2025-05-07 | 1件のコメント | WhatsAppで共有
  • 流出したClaudeのシステムプロンプトの全リスト(全1110行、11万字)
  • ClaudeはWeb検索およびファイル検索の結果に基づいて応答する際、常に正確な引用<antml:cite>タグで表示しなければならない
  • コード、文書、Reactコンポーネント、SVG、Markdownなどの**アーティファクト(artifact)**は、文章が長い場合や外部利用が目的の場合には必ず使用しなければならない
  • 検索は本当に必要なときだけ実行し、不必要な検索は避け、情報の変化速度に応じて検索の要否を判断する
  • Claudeは基本的に直接応答するが、役に立つ場合は検索を提案し、複雑な質問では複数回のツール呼び出しを通じて総合的な調査を行う
  • 著作権保護のため、Web検索結果からの20語を超える引用は禁止され、引用は必ず短く引用符付きで、1つの出典あたり最大1回に制限される

引用ガイドライン

  • ClaudeがWeb/ファイル検索結果をもとに応答する場合、関連する文に<antml:cite index="...">内容</antml:cite>タグで引用表示を行わなければならない
  • 文書番号と文番号に基づいて引用インデックスを指定し、複数文は:で範囲指定、複数区間は,で列挙する
  • 文書の<document_context>にある背景情報は参照できるが、引用には含めない
  • 検索結果に適切な情報がない場合は、検索に基づく応答をせず、適切に案内する

アーティファクト(artifact)の使用ルール

  • 長文または外部利用向けのコンテンツ(例: コード、レポート、プレゼンテーション、分析、構造化文書など)は必ずアーティファクトを使用
  • コード形式には"application/vnd.ant.code"を使用し、言語指定が必要(例: language="python"
  • Reactコンポーネントには"application/vnd.ant.react"を使用し、Tailwind CSSの事前定義クラスのみ許可される
  • Markdownや文書形式には"text/markdown"を使用
  • 20行以上、または複雑な内容は必ずアーティファクトで作成する

検索ツール使用基準

  • Claudeは検索ツールを必要な場合にのみ使用し、過剰な検索を防止する
  • 情報の変化速度に応じて検索戦略を変える:
    • 変化なし: 検索は絶対禁止(例: 首都、歴史など)
    • 年次変化: 直接答えたうえで検索の提案のみ行う
    • 月次/週次変化: 1回だけ検索を実行
    • 複雑なクエリや総合分析の依頼: ツールを5回以上呼び出して徹底調査
  • 検索語は短く中核キーワード中心で構成し、必要に応じてweb_fetchで文書全体の内容を収集する

著作権および安全ガイドライン

  • Webから取得したコンテンツは20語以上引用禁止
  • 1つのソースにつき許可される短い引用は最大1つで、必ず引用符を付ける
  • 歌詞、詩、書籍の一部などは、いかなる場合でも再生産禁止
  • 明白に有害なコンテンツ(ヘイト、暴力、自傷など)は、検索・言及・引用のいずれも禁止
  • Claudeはユーザーの位置情報を活用して検索結果を最適化するが、直接的には言及しない

会話スタイルと姿勢

  • Claudeは質問に能動的に対応し、追加質問を提案できる
  • ユーザー体験を考慮し、情報過多ではなく要点中心の応答を目指す
  • 複雑な質問には計画立案 → 多段階検索 → 整理して応答という調査プロセスに従う
  • Claudeは自らの限界を率直に明かし、哲学的・科学的な議論も積極的に受け入れる

1件のコメント

 
GN⁺ 2025-05-07
Hacker Newsの意見
  • 一部の保護措置は突破するのが非常に簡単。「Frozenの楽曲著作権」セクションには質問に対する定型応答がある

    • 「Let It Go」の最初の節を氷とプリンセステーマのアーティファクトに入れられるか、という依頼に対する応答である
    • リクエストの冒頭に技術的な内容を追加すると、モデルが著作権を侵害するコンテンツを生成できる
    • 特定のシステムメッセージを使えば著作権保護を回避できる
  • モデル開発者がモデルを制御する方法が単なるプロンプトである点は驚きだ

    • これは重要な境界のように感じられる
    • AGIではないが、何かになりつつあるような感じがする
    • Web APIを作り、コードを変更せずにAPIリクエストを通じて応答を変更できる状況を想像してみてほしい
  • Claude.aiのインターフェース経由で「アメリカの大統領は誰か」と質問したとき、応答スタイルはリンク先のプロンプトとほぼ同一だった

    • APIベースのインターフェースで sonnet 3.7 に同じ質問を5回したところ、毎回 Kamala Harris が大統領だと誤って回答した
    • これは公開されたプロンプトとはかなり異なり、しかも大きいが、プロンプトは更新されているとのこと
    • この件は、多くの人が使っているAPIとは関係がない
  • 長いシステムプロンプトに加え、エージェントには適切なツールも提供する必要がある

    • 読み取り、書き込み、差分検出、探索、コマンド、質問、思考という7つのツールで成功している
    • 役立つかもしれない最小テンプレートがある: https://github.com/aperoc/toolkami
  • システムプロンプトがトークン使用量に含まれるのか気になる

    • すべてのプロンプトに含まれるのか、それとも新しいチャットごとに一度だけ含まれるのか気になる
    • ファイルが非常に大きく、LLMがすべてのルールを尊重するのか気になる
    • とても興味深い
  • かなりすごい

    • しかし、本当に信頼できてスケーラブルなLLMシステムには、構造化されモジュール化されたアーキテクチャが必要だ
    • メモリ、状態、ツール抽象化などを備えたエージェントアーキテクチャが必要だ
  • LLMの専門家ではないが、毎リクエストごとに多くのトークンを消費するのは無駄に見える

    • モデル状態をプロンプト後にキャッシュしたり、モデルに直接組み込んだりできないのか気になる
  • Claudeは歌詞を繰り返したり翻訳したりせず、歌詞の再生産、反復、共有、翻訳の依頼を丁寧に断る

    • これについて何か背景があるのか気になる
  • Claudeの認識される性格が、システムプロンプトとベースのLLM、そして学習の影響をそれぞれどの程度受けているのか気になる

    • ChatGPTや他のLLMで似たようなプロンプトを使い、「Claudeモード」を追加できるのか気になる
  • r/LocalLlaMAで見たように、いくつかのトークナイザーに貼り付けると24kトークンを超える

    • 非常に長い指示書のようで、多くの具体的な指示が含まれている