1 ポイント 投稿者 GN⁺ 2026-01-19 | 1件のコメント | WhatsAppで共有
  • AI生成コンテンツがインターネット上の相互作用のかなりの部分を占めるようになった現象を掘り下げた話
  • HackerNewsでオープンソースプロジェクトがAI生成かどうかをめぐって起きた論争をきっかけに、筆者はコメントさえもAIが書いたように見えるパターンを観察
  • 過去のIRCやphpBBフォーラムの時代には実際の人間同士の交流が中心だったが、現在ではAIが作った画像・コメント・コードが日常的に混ざっている
  • LinkedInなどでもAIで加工された会社の写真が実際の社員の投稿として上がってくる事例を目撃
  • 技術の発展が人間の知識共有よりもボット同士の会話と商業的コンテンツの再包装へ流れているという懸念を提起

HackerNewsでの論争と問題意識

  • 筆者はHackerNewsで、あるユーザーが公開したオープンソースプロジェクトを発見
    • コメント欄では複数の匿名ユーザーが、そのコードはAIで生成されたのではないかと疑う
    • コードのコミットのタイムラインやコメントの文体などがAI生成物らしいという指摘が続く
  • 筆者はAIの利用そのものには反対していないが、オープンソースではAI使用の有無を明示すべきだと強調
    • インターネット参加者のほとんどが匿名で、専門性や真偽の確認が難しいため
    • LLMは単純な作業には有用だが、複雑な問題やエッジケースでは危険を招く可能性がある

コメントのパターンに現れたAIの痕跡

  • 筆者はプロジェクト作者のコメントにもAI特有の文体を見つけた
    • 例: em-dash(—)の過剰な使用、「you are absolutely right」のような不自然な表現
    • 「let me know if you want to [do that thing] or [explore this other thing]」のようなAI的な文構造の反復
  • こうした表現は実際の人間の言語習慣と異なるため、会話相手が本当に人なのか疑わしくなる

「死んだインターネット理論」への気づき

  • 筆者はこの経験を通じて**Dead Internet Theory** を思い出す
    • この理論は2016年ごろから、インターネットの大半がボット同士の相互作用と機械生成コンテンツで満たされていると主張する
    • コンテンツの目的は商品の販売やSEO操作など、商業的利益に集中している

過去のインターネットと現在の対比

  • 2000年代初頭のIRCやphpBBフォーラムの時代には、実際の人間同士の学びと交流が中心だった
    • 筆者はこの時期を「Internet University」と表現し、ネットワーク・OS・ゲーム・Web開発を学んだと振り返る
    • 当時は相手が人間だという確信があった
  • 現在はAI画像とコメントが入り混じる現実となり、本物と偽物を見分けるのが難しい

AIコンテンツ拡散への懸念

  • LinkedInで実在する企業の社員が投稿したAIで加工されたオフィス写真を目撃
    • 画像内のおかしな手の形、意味のないテキストなどからAI生成であることが分かる
    • 写真の中の人物たちさえ実在しない可能性がある
  • Facebook、Xitter、TikTokなどでもAI生成の虚偽コンテンツが拡散
    • 例: 巨大な人物がピラミッドを建てたという写真、特定の政治的メッセージを伝える動画など
  • 筆者はこの現実に悲しみと無力感を覚えたと述べる
    • AIが一般大衆にも簡単に使えるようになり、**「AI-slop」(AIの粗悪コンテンツ)**があふれている
    • 人々は自分で文章やコードを書かず、AIエージェントに任せる時代になった

技術と人間の知識の未来への懐疑

  • 筆者は今でも技術とソフトウェアエンジニアリングを愛しているが、
    今日のインターネットはボットがボットと会話する空間へ変わりつつあると指摘
  • 人間の知識が**「日々の問題を解決する10のステップ」**のような商業的コンテンツへ再包装され、
    知識共有の本来の意味が失われつつある

1件のコメント

 
GN⁺ 2026-01-19
Hacker News の反応
  • 少し前に両親が AIで作られた偽のYouTube動画 にだまされた。『人種差別主義の警官』がひどい行為をする動画だったが、最初は自分も本物に見えて混乱した。検索してみると出典はなく、再アップロードしかなかった。チャンネル説明には「一部の動画はAIで再現した実際の事件」と書かれていたが、まったく信用できなかった。こうしたコンテンツが YouTubeの広告収益 のために分断をあおっているのが本当に悲しい

    • 人種差別的コンテンツは 需要が供給を上回っている。現実だけでは怒りを維持しにくいため、こうした動画が作られ続ける
    • AI動画はアカウントの 投稿履歴 を見るだけでもそれと分かる。あまりにも頻繁かつ反復的で、テーマや背景に一貫性がなく投稿される。技術が進歩しても、こうしたパターンは消えない気がする
    • 最近は RealOrAI サブレディットにあまりにも多くの時間を使っている。見分けを間違えるたびに不安になって、もっと見て、もっと上手に見分けようとしてしまう。でも今では 本物と偽物を見分けられない現実 を受け入れなければならないのかもしれない
    • 実際、こうした心配は新しいものではない。以前から 加工された写真や文脈のない動画 で分断を生むのはよくあることだった。AIはそれをもっと簡単にしただけだ
    • Google にはAIコンテンツを含む動画を 自動で表示 してほしい
  • 「ソーシャルネットワークではない」という言葉には完全に同意する。昔は『ソーシャルメディア』といえば 現実の友人たちと交流する場 を意味していたのに、今では Reddit のようなフォーラムまで全部含む言葉になってしまった。その結果、本当の社会的交流の場はほとんど消えてしまった

    • 今その役割を果たしているのは Discord だ。招待制コミュニティなので公開フィードがなく、実際の人間が直接 モデレーション している。昔の IRC 仲間もみんな Discord に移った。いつか上場したら、代替として Matrix のようなものを使うことになりそうだ
    • もともと “social media” は友人たちと 直接コンテンツを共有 するネットワークだった。しかし Facebook が『再シェア』中心に変えてからは、今では友人の近況よりも ランダムなコンテンツを消費するプラットフォーム になってしまった。HN には友人機能がないので、単なるフォーラムに近い
    • TikTok や Instagram も『ソーシャル』と呼ばれるが、ほとんどの人は 何も投稿していない。単なるメディア消費プラットフォームにすぎない
    • 正直、自分も Discord を使ったことがないのでよく分からない。単に 企業が運営するIRCの版 に見えて、なぜそこまで人気なのか理解できない
    • Meta の発表では、ユーザーのうち 実際に知っている人とやり取りしている のは10%未満だという。今のソーシャルメディアは『スクロール娯楽』にすぎない
  • ‘em dash(—)’ を誰も使わないというのは誤解だ。自分は昔からよく使ってきた。“you’re absolutely right” のような表現も、友人同士では 皮肉っぽい冗談 としてよく使う。イギリスで育った自分たちには自然な表現だ

    • 最近は 良いタイポグラフィ を使っているだけで LLM が書いた文章だと誤解されるのが腹立たしい。自分は昔から en dash や em dash を使ってきた。Compose key を使えば入力も簡単だ
    • em dash 自体が問題なのではない。英語が母語ではないのでブログを書きながら練習してきたが、スペースの有無 で印象が変わるため、いろいろな書き方を試した。結局ほとんどの人は一貫していない。文法があまりに完璧すぎる人なら、むしろ AIである可能性 が高い
    • イギリス式の礼儀のせいか、“you’re right, but…” のような表現を自然に使う
    • うちの書店のニュースレターでも em dash を使っている。セミコロンより視覚的にすっきり していて、文の区切りにも便利だ
    • iOS では “-” キーを長押しすれば簡単に入力できるので、よく使う
  • 画像がAI生成かどうかを確認する簡単な方法がある。

    • OpenAI は C2PA メタデータを、
    • Gemini は SynthID ウォーターマークを使っている。
    • SynthID は画像だけでなくテキストにも適用され、コードも公開されている
    • しかし image-to-imageモデル でノイズを加えたり除去したりすれば、SynthID も消せる
    • 実際に OpenAI ブログの画像も 検証サイト に上げてみたが、メタデータはなかった。こういう点は信頼を損なう
    • ただし C2PA の目的は『本物であることの証明』 だ。すべてのコンテンツを検証できるわけではないが、認証済みの画像は法的証拠としても使える
  • 今の問題は結局 プラットフォームのインセンティブ構造 のせいだ。

    • YouTube は再生数、LinkedIn は自己PR、HN はスタートアップの宣伝が動機になっている。
    • 人間同士の純粋な相互作用しか存在しない AIが役に立たないコミュニティ を作れるだろうか?
    • おそらく 少人数の友人グループ くらいが唯一の答えだろう
    • 昔は無料の phpBB フォーラムや IRC で賢い人たちと会話できた。しかし 運営費とモデレーションの負担 が大きかったことを今になって理解した
    • こうしたコミュニティは ダンバー数(Dunbar’s number) で制限されるべきだ。それ以上大きくなると、ルールや管理者なしでは維持できない
    • 今では不正確な動画も結局 再生数と広告収益 につながる。プラットフォームは責任を負わない
    • 広告を完全に禁止し、グローバルフィードなしで友人中心のフィード だけを見せる構造なら可能かもしれないが、UX は悪くなるだろう
    • 結局、問題の根本は 広告ベースのインターネットモデル だ。Twitter の問題もイーロン・マスクよりこの構造的限界のほうが大きい
  • オープンソースコードを公開するとき、AI使用の有無を明かす義務 はないと思う。そんな要求は創作意欲をそぐだけだ。人々は自分が書いたコードを共有したいのであって、『AIを使っていない』という証明 をしたいわけではない

    • ただ、場合によっては作者が「AIは使っていない」と言い張り続ける一方で、コードには AI生成の痕跡 が残っていて、まるで ガスライティング されている気分になることもある
  • AIを禁止した ソーシャルメディアプラットフォーム があるのか気になる。画像メタデータやユーザー行動分析で防げるのかもしれない

    • そんなプラットフォームができたら、敵対的学習(Adversarial training) の天国になるだろう
    • Bluesky は公式には禁止していないが、コミュニティが AIに非常に敵対的 なのでほとんど見かけない
    • 新たに復活する Vine は AIコンテンツを明示的に禁止 する予定だという
    • Mastodon.art のようなところは AI を明確に禁止している
    • 結局 社会的圧力 だけでも AI を防げるコミュニティは存在しうる
  • いつかオンラインコンテンツがすべてAIで作られるようになれば、人間が 現実を再び求めるようになる のではと期待している

    • すでにそうした変化は少しずつ起きている。以前は「写真がなければ信じない」だったが、今では 写真も改ざん可能 なので、本当の思い出用の写真だけを撮る
    • しかし逆に、多くの人が AIとの相互作用 で満足するようになる可能性も高い
    • 今でもスマホを手放せないのに、AIが最適化されたコンテンツを作るなら、さらにのめり込むだろう
    • それでも、その考え自体はとても温かい
  • 今や私たちは チューリングテストを超えた時代 にいる。人間とAIを見分けられないのだとしたら、それはAIが賢くなったからではなく、私たちのオンライン会話が表面的 だからかもしれない

    • ただし本当のチューリングテストは、単にだまされることではなく、対話する審問者(interrogator) が区別できないことである。今の LLM はまだその水準には達していない
    • テキストは情報量が少なく、『人が書いた』という信頼感 があるため、簡単にだまされる。だからテキストベースのAIは特に危険だ。自分も最近、電話中に相手が人間なのかロボットなのか分からなくなることがある
    • 結局、「一方の手には…」「もう一方の手には…」というような、バランスの取れた視点が必要だ
  • 自分はこれを 『カーペット効果』 と呼んでいる。完璧に整列した映像や会話の構造を見ると人工的な感じが残る。モロッコのカーペットのように、わざと 不完全さを残してこそ人間らしい。だが、こうした『見分けやすさ』もすぐに消えてしまいそうだ