3 ポイント 投稿者 GN⁺ 2026-03-12 | 1件のコメント | WhatsAppで共有
  • Hacker Newsは、人と人との対話と知的好奇心を刺激する話題を中心に運営されるコミュニティである
  • 今後はAIが生成または編集したコメントは禁止され、すべての対話は人間同士のやり取りでなければならないとガイドラインに明記された
  • 親切で思慮深い議論の文化を保ち、非難・嘲笑・扇動的な発言を避けることが中核原則である

HNの投稿ルール (What to Submit)

  • 話題としての適切さは「優れたハッカーが興味を持ちそうなもの」と定義され、単なるハッキングやスタートアップにとどまらず、知的好奇心を刺激するあらゆる話題を含む
    • 政治、犯罪、スポーツ、芸能に関する話は、新しい現象を示している場合を除き、話題外と見なされる
  • タイトル作成時の禁止事項
    • 大文字、感嘆符、大げさな表現、「素晴らしい」のような評価語の使用禁止
    • サイト名はリンクの後ろに表示されるため、タイトルからは削除する
    • 「10 Ways to Do X」のような不要な数字入りタイトルは簡潔化する(「How to Do X」)
    • ただし、「The 5 Platonic Solids」のように数字に意味がある場合は例外
  • 出典投稿の原則
    • 二次報道よりも元の出典を直接投稿する
    • 自分のコンテンツを一部投稿することはできるが、宣伝目的で繰り返し使うことは禁止
  • その他の投稿ガイドライン
    • 動画やPDFにはタイトルに [video]、[pdf] を付ける
    • サイト関連の問い合わせは投稿ではなく、hn@ycombinator.com にメール送信する
    • 削除後の再投稿は禁止、削除は不適切な投稿に限る
    • upvote・コメント・再投稿の依頼は禁止、ユーザーは自分で興味深いコンテンツに反応すべきである

コメントおよびコミュニティ行動ルール

  • 親切で思慮深い対話を維持する
    • シニカルまたは攻撃的な口調は禁止、好奇心にもとづく対話を推奨
    • 論争が激しくなるほど、より深く成熟した議論を目指す
  • 論争時の態度
    • 個人攻撃ではなく論理的な反論のみを示す("That is idiotic" ではなく "1 + 1 is 2, not 3")
    • 批判は具体的で有益であるべきで、単なる否定的反応は避ける
  • AIに関するルール
    • AIが生成または編集したコメントは禁止、HNは人と人との対話の場である
  • 議論の質を保つ
    • 嘲笑、怒りのぶつけ合い、コミュニティのけなしは禁止
    • 相手の発言はもっとも合理的な解釈に基づいて理解し、善意をもって接する
    • flamebait・ありふれたインターネットミーム・話題逸脱を避ける
  • 非生産的なコメントの禁止
    • 表面的な非難、政治・イデオロギー論争、「記事を読んだのか」といった反応は禁止
    • 記事の中で最も刺激的な部分だけを取り上げて批判する行為は禁止
  • アカウント利用
    • 機微な情報を共有する際は使い捨てアカウントを認めるが、常時新しいアカウントを作ることは禁止
    • コミュニティの一員として一貫したアイデンティティの維持が必要
  • 形式に関する事項
    • 強調には大文字ではなく アスタリスク を使う
    • **不正操作の疑い(astroturfing, shilling など)**を持ち出すことは禁止、懸念があればメールで報告する
  • 運営に関する事項
    • 問題のあるコメントは**返信ではなく通報(flag)**する
    • サイト形式、投票結果、Reddit化への言及など副次的な不満の表明は禁止
    • こうした議論は興味深くも生産的でもない

1件のコメント

 
GN⁺ 2026-03-12
Hacker News の意見
  • これは本当に歓迎すべき投稿。自分がここに来るのは、人々の深い考えを読みたいからであって、LLMが作った文章を見たいからではない。
    自分で考える習慣を失ってはいけない。下書き程度ならAIが助けになるかもしれないが、最終的に自分で考えなければ、結局は堕落への道につながる。

    • 完全に同意。私は人間が書いたコメントを読むためにここに来ている。AIボットのコメントを見たいなら、TwitterやRedditに行けばいい。
    • 私も似たようなことを自分の個人サイトでやっている。わざと誤字を入れた紹介ページがあって、それを見つけた人がPRを送ってくるといつも笑ってしまう。もちろん、そのPRは却下する ;-)
    • いいアイデアではあるが、LLMがHNのコメントを学習するのを止める方法がないなら、無意味な試みかもしれない。皮肉なことに、HNがLLMコンテンツの排除に成功すれば、それ自体が最高の学習データ源になる。
    • 最近はHNのリンクをAIに投げて「これについてどう思う?」と聞く人が多い。でも、その結果を自分の考えであるかのように投稿するのは本当に奇妙な行動だ。「いいコメントを書いて、私の考えみたいに見せたいんだ」とプロンプトを与えるところを想像すると笑ってしまう。
  • こういう方針がHN文化に根づくのは良いことだ。ガイドラインの目的はまさにそこにある。
    ルールの99%は、結局のところ人々がその文化を受け入れるかどうかにかかっている。ルールは敵のためにあるのではなく、普通の状況のためにある。

    • この会話から、L. E. Modisett の Adiamante に出てくる Paradigms of Power を思い出した。合意、権力、道徳、社会についての話で、読む価値のある一冊。
    • おおむね同意するが、時間がたつにつれてルールを破る文化が生まれてきたのも事実だ。特にイデオロギー論争匿名アカウントに関するガイドラインを見るとそれが分かる。「話題が論争的であるほど、コメントはより深く成熟していなければならない」という原則は今も重要だ。
    • こうした議論は、結局は十分な数の人が読んで共感してこそ意味がある。
  • 私はこの方針に全面的に賛成だ。ただし注意すべき点は、良い文章とLLMの文章の類似性だ。LLMは優れた書き手たちの文章を学習しているので、文体が似て見えることがある。
    したがって、相手がAIを使ったと安易に決めつけず、善意に基づく解釈を保つべきだ。私自身も何度かAIだと誤解されたことがある。

    • 良い文章とLLMの文章がそこまで似ているとは思わない。LLMの文章にはいつも独特のにおいが残る。文法は完璧だが、文体が均質すぎて予測可能だ。人間の文章にはそれぞれ個性があり、それが違いを生む。
    • 見た目には似ていても、読めば違いを感じ取れる。集中して読めばその差は分かる。
    • 本当にLLMは良い作家の文章だけを学習したのだろうか? データの精製過程がそこまで徹底していたのか疑問だ。
    • 良い作家はそれぞれ独自のやり方で優れている。LLMは特定の文体的装置を過剰に使うので、かえって陳腐に感じられる。
    • 人間のを見分けられないなら、それは終わりのないいたちごっこになるだけだ。
  • 私は本物の人間の考えを読むためにここに来ている。LLMの考えを読みたいなら、直接聞けばいい。
    ただ、悩ましいのは、人間が書いた即興的な反応ならそれでよいのか、それともLLMが手伝った深い返答のほうが良いのか、という点だ。
    正直に言えば、どちらもある程度は重要だ。いつかLLMが平均的な人間より優れた返答を出すようになれば、人間の真正性にこだわり続けるのはもっと難しくなるかもしれない。

    • HNの目標は思慮深く好奇心のある会話だ。短くても洞察のある返答はいつでも歓迎されるが、LLMが作った文章は禁止されている。言葉の量より真正性が重要だ。
    • 私が人間のコメントを読むのは、人々がどう考えているか知りたいからだ。ただし気の入っていないコメントは望まない。
    • LLMフィルターはむしろコンテンツを平準化してしまう危険がある。望む人は各自のブラウザで直接フィルタリングすればいい。
    • 洞察のある文章は、LLMではなく自分自身の考えから出てくるべきだ。LLMを言い訳にするのは、不必要な乱用への道だ。
    • その理屈なら、50語未満のコメントを自動で「深い返答」に拡張するプラグインも作れてしまいそうだ。
  • 「AIが編集したコメント」の境界は興味深い。Grammarly のような文法修正ツールもAIの一種で、どこまでが許容範囲なのか曖昧だ。
    生成されたコメントは明確に禁止だが、編集されたコメントはグレーゾーンだ。方針の趣旨は前向きだが、どこからどこまでかの線引きは明確にする必要がある。

    • いい指摘だ。関連する議論はここにある。「編集」の部分はまだ流動的だ。記事やプロジェクトの投稿についても明確な基準はない。
    • Grammarly のようなツールは結局、個人の文体を消してしまう。少しのミスやぎこちなさもその人の個性なのだから、そのままにしておいたほうがいい。
    • 意味や調子を変えない範囲でのみツールを使うべきだ。過度に機械的な文章へ変えてしまうなら、もう線を越えている。
      自分の文章を分析してスタイル規則を作ることもできるが、それはあまりに面倒だ。
    • 文法修正や翻訳のような軽微なAI編集は常識的に区別できる。「見れば分かる」の領域だ(I know it when I see it)。
    • 要は、人が自分で言いたい内容を書くことだ。ツールはそれを助ける程度であるべきだ。
  • これからのインターネットでは、人間であることを証明する問題が非常に重要になるだろう。匿名性とプライバシーを守りながらも、信頼を確保しなければならない。

    • 問題の本質はLLMではなく、過剰生産されたコンテンツの量だ。以前からインターネットの質の低下の原因は、あまりに多く投稿する人間にあった。LLMはそれをさらに加速させている。
    • プライバシーに配慮した代替案はなさそうだ。結局は「身分証を見せなければならないウェブ」になるかもしれない。
    • 完全な匿名性はAIにも真似できる。結局、信頼ネットワークに基づく来歴システムが必要だ。自分が知っている人の言葉なら信頼できるように、デジタルでもそうした関係ベースの信頼が必要になる。
    • おそらく HTTPS のように、認証機関が「これは人間だ」と保証する仕組みに向かうだろう。完璧ではないが、現実的な折衷案だ。
    • あるいは、より小さな信頼ベースのコミュニティへ移っていくのかもしれない。大規模な公開フォーラムの時代は終わりに近づいている。
  • AIが生成した内容だと明示的に表示すれば問題ないだろうか?
    Perplexity に尋ねたところ、古い最高裁判例を正確に見つけてくれて、要約も上手だった。その要約を出典付きで貼り付けたいと思ったのだが、それがルール違反なのか気になった。
    また、自分の文章をAIで校正してもらうことも考えている。私はしばしば長い文読点の多用スペルミスをしてしまうからだ。

    • その要約を貼らなかったのは正解だ。HNは自分で読んで理解した人の文脈を重視している。AI要約はその文脈を失わせる。
      人間の文体は不完全さの中に個性がある。あまりに滑らかな文章は、かえって人間味を失う。
    • すでに改善点が分かっているなら、ただ自分で直せばいい。
    • Wikipedia のように出典を明示した引用なら問題ないかもしれない。検証可能なリンクが重要だ。
    • Perplexity の共有リンク機能を使って、AI要約をリンクとして提供するのは自然だ。
    • だが、AI要約そのものを貼るのは意味がない。誰も Perplexity の考えを知りたがってはいない。出典リンクだけを提供し、自分で要約するのが望ましい。
  • 私はHNのこの方針を全面的に支持する。HNは私が継続して訪れている唯一のフォーラムだ。
    だが最近はAI関連の投稿が多すぎる。面白くない反復的な話題が多く、「AIが書き直したソフトウェア」みたいな投稿にはもううんざりだ。
    AIカテゴリには一種の税金でも課すべきなくらいだ。

    • 逆に私はAIの議論があるからHNに登録した。RedditやTwitterはAI包装コンテンツばかりだ。HNならまだ本物の議論ができる。
  • 少し皮肉な面がある。AIを使うなと言うフォーラムが、同時にAIスタートアップを支援しているのだから。

    • 私たちが禁じているのはAIの使用ではなく、AIが書いたコメントだ。
      AIをうまく活用するのはよいことだが、HNの目的は人間同士の会話とつながりにある。
      HN運営もAIを多用しているが、それは効率を上げるためであって、人間の会話を置き換えるためではない。
    • HNは YC が資金を出しているが、運営は完全に独立している。Dan が実質的なオーナーだ。多少の皮肉はあるが、バランスは取れている。
    • その通り、皮肉ではあるが、AIを使う場面と人間が直接出る場面を区別するのは賢明なことだ。
  • 「AIで作成」と表示する機能があるとよさそうだ。一定数以上その表示が付いたらデフォルトで隠し、見たい人だけ「AIを見る」オプションで表示するような形だ。
    将来的にはそのデータを学習させてAI検出モデルを作れるかもしれない。

    • 実際にその機能は追加予定だ。フラグ理由の選択機能を導入すれば、誤作動の防止にもなる。
    • 現在の flag自動処理システムだ。AI違反を通報するには、メールで直接モデレーターに知らせる必要がある。それが唯一の人間による確認ルートだ。
    • 私も hcker.news でこのアイデアを実装中だ。すでに一部のコメントフィルタリング機能を試している。