35 ポイント 投稿者 GN⁺ 2025-07-10 | 1件のコメント | WhatsAppで共有
  • 近年、LLMを使った文章作成が増えるにつれ、不自然な文章パターンが目立つようになっている
  • 中身の薄い要約文過剰な箇条書き単調な文のリズムなどは、LLMライティングの代表的な問題点である
  • 情報密度が低い表現が曖昧といった特徴がしばしば現れ、実質的なインサイトが乏しくなる傾向がある
  • 一方で、意図的な反復明確な道しるべ表現並列構造などはLLM風だと誤解されがちだが、実際には有効な文章技法である
  • 著者は、LLMをアウトライン設計草案作成部分ごとのリライトに活用しつつも、最終的な判断や深みのある内容構成は人間の役割だと強調する

Common Patterns of Bad Writing I See from LLM Tools

  • この数年、さまざまな技術論文やブログ記事を書いてレビューする中で、LLMベースの文章にはどこか微妙に「ぎこちなく、魅力に欠ける」感触がいつもあると感じてきた
  • その一方で、下書きの作成、複雑な資料の要約、散らかった考えの整理には、LLMの活用が大いに役立つことも実感している
  • 本記事では、LLMがよく生み出す悪い文章パターンと、しばしば「LLMっぽい」と誤解されるが実は問題のない文章習慣、そして筆者が実際に使っている執筆とプロンプトのルールを共有する

Empty “summary” sentences that pretend to conclude a thought

  • 段落の最後に、"By following these steps, we achieve better performance.", "By internalizing these principles, you can cut through the noise." のような、結論らしく見えて実質的には何の意味もない要約文がよく現れる
    • 「この手順に従えば、より高い性能が得られる」
    • 「これらの原則を身につければ、雑音を切り抜けられる」
  • こうした文は、読者に新しい洞察や考える材料を与えない
  • 筆者自身も、LLMにこのような実質的なメッセージを含む文を書かせる確実な方法はまだ見つけられていない

Overuse of bullet points and outlines

  • LLMは箇条書き(リスト)やアウトラインを過剰に使う傾向がある
  • 項目が並列的で独立している場合はリストが有効だが、アイデア同士がつながっていたり文脈が重要だったりする箇所では、段落のほうが適している

Flat sentence rhythm

  • すべての文が似た長さと構造で繰り返されると、文章は退屈になり、読者も追いにくくなる

  • 文の長さやリズムを変化させることで、強調、注意喚起、テンポ調整が可能になる

    • Bad example:
      "We recently launched a conversational AI feature that lets users ask questions in plain English and get responses based on their past activity and current session. The system searches a database of help articles, ranks the most relevant ones using a custom scoring function, and passes the top result into a language model to generate the final answer. We spent weeks optimizing each step to keep latency under 300 milliseconds, including caching, pruning irrelevant articles, and tuning prompt templates."
      「私たちは最近、ユーザーが平易な英語で質問し、過去の行動や現在のセッションに基づいた回答を得られる対話型AI機能を公開した。このシステムはヘルプ記事のデータベースを検索し、カスタムのスコアリング関数で最も関連性の高い項目を選び、その結果を言語モデルに渡して最終回答を生成する。各段階のレイテンシを300ミリ秒未満に抑えるため、キャッシュ、不要な記事の削減、プロンプトテンプレートの最適化に数週間を費やした」

    • Good example:
      "We just launched a new conversational AI feature. It answers user questions in plain language, using context from the current session. The system searches help articles, scores them with a custom ranking function, feeds the top result into a fine-tuned language model, and runs in under 300ms using caching, pruning, and prompt tuning techniques."
      「私たちは新しい対話型AI機能を公開した。この機能は現在のセッションの文脈を使って、ユーザーの質問に平易な言葉で答える。システムはヘルプ記事を検索し、カスタムのランキング関数で評価し、最上位の結果をファインチューニング済みの言語モデルに入力する。キャッシュ、絞り込み、プロンプトチューニングによって、300ms未満で動作する」

Not the right subject

  • 主語の選び方が適切でないと、文の核心がぼやける
    • Bad example:
      "Readers are better guided when the subject matches the main idea of the sentence."
      「主語が文の中心的なアイデアと一致すると、読者はよりよく導かれる」
    • Good example:
      "Choosing the right subject keeps the writing clear and focused."
      「適切な主語を選ぶことで、文章は明確で焦点の定まったものになる」
  • 適切な主語の選択は、文章の一貫性と集中力にとって重要である

Low information density

  • 以下は Gemini 2.5 Pro によるLLM生成文の例である:
    > "As someone who writes, reviews, and deconstructs complex information for a living, I’ve developed a strong allergy to bad writing. And lately, a lot of that bad writing has a specific, synthetic flavor—the unmistakable scent of an LLM. This post is a guide to navigating the new world of writing, with or without LLM assistance. First, I’ll cover the true pitfalls of LLM-generated text—the red flags that make it feel sterile and unconvincing."
    > 「複雑な情報を扱い、書き、レビューする仕事をしている者として、私は悪い文章に強い拒否反応を持つようになった。最近では、その悪文の多くが人工的で、LLM特有の匂いを帯びている。この投稿は、LLMの助けがある場合もない場合も含めて、新しい文章世界をどう進むかのガイドである。まず、LLM生成テキストの本当の落とし穴、つまり無機質で説得力に欠けると感じさせる危険信号を取り上げる」
  • 文の構造や文法は完璧でも、実質的な洞察や具体的情報、議論の前進がない

Vagueness

  • LLMの文章は具体性を避けがちである
  • アイデアを明確に定義せず、根拠のない主張をしたり、誰の話なのか不明瞭なまま書いたりする
    “Some experts say prompt engineering is becoming less important. The ability to simply prompt LLMs can have a major impact on productivity.”
    “プロンプトエンジニアリングの重要性は薄れつつある、と言う専門家もいる。LLMに単にプロンプトを与える能力が、生産性に大きな影響を与える可能性がある”
    → 誰が、どの文脈で、誰に影響するのかといった具体的な根拠や対象が欠けている

Overuse of demonstrative pronouns

  • "this", "that", "these", "those" といった指示代名詞の乱用が多くなる
  • 指している名詞が明確でないと、読者は内容を取りこぼしやすい
    “This creates friction in production.”
    “これにより本番環境で摩擦が生じる”
    ここでの "this/これ" が何を指しているのか明確ではない

Fluency without understanding

  • 見た目は流暢でも、実際には説明力の乏しい文がよく現れる
    “LLMs use attention mechanisms to generate contextually appropriate responses.”
    “LLMはattention mechanismを使って、文脈に適した応答を生成する”
    → 読者が attention とは何かを知らなければ、何の情報も伝わらない
  • LLMは実在しない用語を作ってしまうことも多い
    “We used GPT-4 for summarization, but it hallucinated details, so we added retrieval grounding.”
    “私たちは要約にGPT-4を使ったが、事実ではない詳細を生成したため、retrieval grounding を追加した”
    → “retrieval grounding” は実際には存在しない用語である
  • LLMは読者の前提知識と説明の必要性を見分けられず、難しい部分をそのまま飛ばしてしまいがちである

Writing Patterns People Flag as “LLM-Like,” But Are Actually Fine

  • 人々がLLMっぽいと過剰に警戒するものの、実際には効果的で一般的な文章パターンもある
  • 重要なのは、モデルっぽく見えない文章を書くことではなく、明確さ、意図、コントロールを備えた文章を書くことである

Intentional repetition

  • 反復は、複雑なアイデアを明確にしたり強調したりするときに有効である
    "Vector databases store embeddings, or mathematical representations that capture semantic meaning in hundreds of dimensions. In other words, vector databases help find results that are “close” in meaning, not just exact text matches."
    「ベクトルデータベースは埋め込み、つまり数百次元にわたって意味を捉える数学的表現を保存する。言い換えれば、ベクトルデータベースは、テキストが完全一致しなくても、意味的に『近い』結果を見つけるのに役立つ」

Signposting phrases

  • "essentially", "in short", "the point is..." のような道しるべ表現は、その後に実際の情報が続くなら有用である
    例:
    "Essentially, instead of classifying the document as a whole, we classify each section independently."
    「要するに、文書全体を分類する代わりに、各セクションを個別に分類する」

Parallel structure

  • 並列構造は、アイデアを整理し、文の流れを滑らかにする
    "The system scales across inputs, stays responsive under load, and returns consistent results even with noisy prompts."
    「このシステムはさまざまな入力にスケールし、高負荷時でも応答性を保ち、ノイズの多いプロンプトでも一貫した結果を返す」

Section headings that echo a structure

  • "Why X fails", "What to do instead", "How to know if it worked" のような予測しやすい構造のセクション見出しは、内容が明確であれば十分に効果的である

Declarative openings

  • 断定的な宣言文でセクションを始めることは、それを支える証拠や説明があるなら、むしろ文章の焦点を強める
    例:
    "LLM evaluations are hard to get right. Many rely on user-defined gold labels or vague accuracy metrics, which do not work for subjective or multi-step tasks."
    「LLMの評価を適切に行うのは難しい。多くはユーザー定義の正解ラベルや曖昧な精度指標に依存しており、主観的なタスクや多段階のタスクにはうまく機能しない」

Em dashes

  • エムダッシュ(—) は、文中での補足説明やリズムの変化、素早い転換に役立つ
  • 適切に使えば、自然な口語的な流れと強調に貢献する

How I Write with LLMs

  • 筆者は、文章を書くうえで流れ(モメンタム)を保つことを最も重視している
  • 実際の論文やブログ記事の作業プロセスは、おおむね次のようなものだ
    • アウトラインを計画する(紙に書く、または頭の中で描く)
    • 草案を作る
    • 書いた内容を読み、批判的に見直す
    • 修正する
  • このプロセスは、文単位、セクション単位などさまざまな粒度で繰り返される
  • 人によって、計画段階、草案作成、修正段階のどこで詰まるかは異なる
    • 筆者はアウトラインはすぐ作れるが、表現(phrasing)でよく詰まる
    • LLMを行き詰まりを越えるための道具、あるいは草案構成を速めるための道具として積極的に活用している

Narrate the story to the model

  • 草案を書き始めるときは、同僚に構成を説明するようにラフに話した内容をLLMに貼り付け、詳細なアウトラインの生成を依頼する
  • 構造が明確になるまで、この作業を繰り返す

Write the paragraph myself, even if it’s rough

  • アウトラインができたら、各段落は自分で書くようにしている(粗くても構わない)
  • 文を最後まで書き切るのが難しいときは、"finish it" のようにLLMへ依頼し、複数の完成案の中から最適なものを選び、必要に応じて少し直して使う
    “In the last couple of years, I’ve written and reviewed several technical papers and blog posts. Something always feels slightly off, enough to make the writing quietly uninviting. At the same time, I feel like I get tremendous value from using LLMs to write…” “finish it”
    “ここ数年で、私はいくつもの技術論文やブログ記事を書き、レビューしてきた。いつも何かが少しだけずれていて、それが文章の魅力を静かに損なっているように感じる。同時に、LLMを使って書くことから大きな価値を得ているとも感じている…” “finish it”
    → モデルは複数の提案を出し、その中から最も良いものを選び、少し修正して先へ進む

Use scoped rewrite strategies during revision

  • 段落や文がぎこちないときは、"make it better" ではなく、**具体的な依頼やパターン(修辞構造など)**をLLMに伝える
  • 例となる戦略:
    • 主語と動詞をできるだけ近く、文の前半に置く
    • SWBST(誰が、何を望んだが、どんな障害があり、どう対応し、結果はどうなったか)構造を使う
      • 例:
        "We used GPT-4 for summarization. We wanted fluent answers, but it hallucinated facts. So we added a retrieval step. Then we re-ranked outputs based on citation accuracy."
        「私たちは要約にGPT-4を使った。流暢な回答を求めていたが、事実を捏造した。そこで retrieval ステップを追加した。その後、引用の正確性に基づいて出力を再ランキングした」
      • SWBST構造は、技術文書でも動機、問題、対応、結果を簡潔に伝えるのに有効である

Parting Thoughts

  • いまや、**中程度の出来の文章(平均的な品質)**ならLLMで簡単に生成できる時代である
  • しかし、何を書くか、どの視点や構成を選ぶか、どこで深く掘り下げるべきかを判断することは、依然として人間の役割である
  • 本当に良い文章には、長さに見合う実質的な貢献が必要であり、読者が時間を投資する価値を持っていなければならない
  • この基準を満たすことが、筆者の目指すところである

1件のコメント

 
crawler 2025-07-10

ギークニュースはそういう点で情報密度が高くて良いと思います。
断定的で簡潔な文体で終わるのが、本当に密度の最適化のように感じます