2 ポイント 投稿者 GN⁺ 2 시간 전 | 2件のコメント | WhatsAppで共有
  • AI Slop とは、必要としていない人々に低労力なAI生成物を押しつける行為であり、善意から生まれた成果物であってもオンラインコミュニティのシグナルを濁し、メンバーを疲弊させる
  • プロンプトを実行しただけで作ったGitHubリポジトリ、ブログ記事、動画、電子書籍を複数のsubredditやSlackにばらまくやり方は、貢献というよりコミュニティの負担になりやすい
  • 共有前には、本当に有用か、作った本人が実際に使っているか、ドキュメントやテストが十分か、IssueやPRに責任を持つ準備ができているかを確認すべき
  • 良いAI活用とは、Built with AI, not by AI のように、人間が考え、指示し、検証することで、以前は難しかった貢献を可能にするケースであり、Gunnar MorlingのHardwoodのような、設計とロードマップを備えたプロジェクトがこれに当たる
  • コミュニティを尊重するには、まず空気を読み、関係のある内容だけを共有し、AIの使用有無と範囲を明確に示す必要があり、そうしなければレビュアーや読者に不要な影響を押しつけることになる

AI生成物の共有がコミュニティに与える影響

  • インターネットではAIで作った成果物を共有する人が増えているが、その多くは作った本人の個人的な場に置いておく程度のものであり、広いコミュニティに配布するほどの内容ではないと考える
  • AIそのものに反対する立場ではなく、AIを受け入れない姿勢は時代の流れに逆らうものだと考える
  • 問題は、悪意がなくても価値あるコミュニティが低品質なAI生成物の攻勢の中で少しずつ弱っていることにある
  • 「KafkaをCOBOLで書き直した」「Kafkaのブログ記事を書いた」「Kafkaの動画を作った」「Kafkaの電子書籍を出した」といった成果物が、実際にはClaudeが作った低品質な産物にすぎないなら、有用な学習資料やコミュニティへの貢献とは見なしにくい
  • プロンプトを入力して実行しただけで新しいGitHubリポジトリのstarを求めたり、AIが作った記事やリポジトリを複数のsubredditやSlackに無差別に共有したりするやり方は、コミュニティに負担をかける

共有する前に立ち止まるべきポイント

  • 繰り返されるパターンはおおむね次の通り
    • エージェント型コーディング(agentic coding)を見つけて大きな衝撃を受ける
    • プロジェクトをGitHubに上げる
    • AIに熱狂的なブログ記事を書かせたうえで、関連性の有無にかかわらず見つけられるすべてのsubredditとSlackグループに共有する
  • 2つ目の段階のあとで立ち止まり、何を作ったのか、なぜ共有しようとしているのかを深く考えるべき
  • 「かっこいいから」では理由として十分ではない
    • エージェント型コーディングはもはや珍しいものではなく、いまや作業方法の一部になっていると考える
    • プロンプトを思いつければAIが書ける、という事実だけでは大きな意味はない
  • 広く共有する前に確認すべき問いがある
    • 本当に有用か
    • 作った本人が実際に使っているか
    • ドキュメントは十分に良いか
    • 使える状態か
    • コードを繰り返し見直し、十分に試したか
    • Claudeと一度作って翌日にはあまり良い考えではなかったと感じる程度のものではないか
  • ソフトウェアであれば、人々がIssueを立てたりPRを送ったりする対象として責任を持つ準備が必要
  • 記事であれば、自分自身が読みたいと思える内容であり、コミュニティの蓄積された理解に実際に寄与するものであるべき
  • 単にLLMがオートコンプリートのように生み出したテキストなら、作った本人も書きたくなく、読者も読みたくない成果物になりうる

なぜ問題なのか

  • AI slopはコミュニティのノイズを増やし、シグナルをますます見分けにくくする
  • Redditのような場は、vibe-codedなAI成果物で少しずつ覆われつつあり、多くの場合、善意から出たものであってもコミュニティに貢献できていないと考える
  • コミュニティがこうした内容で汚染されるほど、メンバーはAI slopをかき分けることに疲れ、離れていく
  • メンバーが離れれば、コミュニティの有機的な生命力はいっそう弱まるという下降スパイラルが生まれる危険がある
  • この流れが続けば、オンラインコミュニティはしおれて死ぬか、あるいは人間不在でAIエージェント同士が「会話」する、ディストピア的だがありふれたMoltBookのような形に収束するかもしれない

良いAI活用と悪いAI slop

  • AI Slop という表現は最近広く使われている
  • 一般には、AIが作った低労力の素材を、それが役に立たない人々へ押しつける行為を否定的に指す
  • ただし一部には、AIが書いたものでなくてもAIについて書かれたものすべてを「AI Slop」と呼ぶ人もおり、こうした態度はAI嫌悪の立場と強く重なりうると考える
  • AIの助けで作られた素材そのものが悪いわけではない
    • 核心は、それがどの目的に使われるかである
  • 良いAI活用とは、以前にはできなかったことを可能にし、これまで貢献できなかった人がコミュニティに貢献できるようにするケースである
  • その背後に人間の注意と善意があるなら、AI活用は明らかな純増効果になりうる
  • 悪いAI slopは、コミュニティの発展ではない別の目的のために、塀の向こうへゴミを投げ込むようなものだ
    • スパム
    • エンゲージメント狙いの低品質な投稿
    • その目的の場ではないところに投げ込まれる無神経なノイズ

共有の基準

  • オンラインでコンテンツを共有することは素晴らしく、インターネットを今日の姿にした重要な要素でもある
  • 重要なコツは、何を、誰に、なぜ共有するのかを理解することにある
  • Geocities時代には、高校生のオタクたちがそれぞれホームページを作り、Under Construction のアニメーションGIFや、ウェブカウンター、ウェブリングのバナーを置いたりしていた
  • だからといって、ホームページを作っただけですべての人に共有すべきということにはならない
    • 友達や親に見せることはできる
    • 一般のインターネット全体に共有する価値があるかは別問題である
  • AI生成コンテンツにも同じ基準が当てはまる
    • vibe-codedなアプリであれブログ記事であれ、作ったという理由だけでみんなに共有する必要はない
  • 2026年初頭のインターネットはClaude Opus 4.5の力を発見して集団的な衝撃を受け、それ自体はとても素晴らしいことだったと考える
  • 新しいものを見つけると、人は友人たちと共有したくなる
  • そこにすでに過熱していたAI誇大マーケティングが結びつき、subredditやSlackはAI生成物であふれるようになった

何を共有すべきか

  • AIによって作られたのではなく、AIとともに作られたもの

    • Gunnar Morlingの最近の記事にある「Built with AI, not by AI」という区別が核心である
    • AIは強力なツールであり、仕事の道具箱に入れていないのはほとんど職務怠慢に近いと考える
    • しかしAIはあくまでツールであり、考え、指示し、確認するのは人間が行うべきだ
    • Gunnar MorlingはAIを使ってApache Parquet向けの新しいパーサーHardwoodを作った
    • Hardwoodはこれまで4か月をかけたプロジェクトで、堅実なロードマップ、成長するコミュニティ、慎重な設計を備えている
    • こうしたプロジェクトは、AIを使ったという理由だけで批判の対象にはならない
  • 貢献

    • 共有しようとしているものが、コミュニティに本当に貢献するのかを見極めるべき
    • 本質的にエージェント型コーディングツールへプロンプトを入れた結果にすぎないのかを確認すべき
    • 同じプロンプトを他の人が実行しても似たような結果になるなら、それ自体がそのテーマへの意味ある貢献なのか疑うべき
    • プロンプトエンジニアリングは楽しく興味深い研究対象だが、コミュニティが扱うテーマそのものとは脇道かもしれない
    • これは、凝った家具の愛好家コミュニティに、面白いノミのセットを見せたいという理由でIkea風の家具を投げ込み続けるようなものだ
    • Claudeで作れるあらゆるかっこいいアプリを共有する必要はない
    • 使い捨てのツールや小さなスクリプトは問題なく、インターネットは人々が作って共有した奇妙な小さなスクリプトの上に築かれてきた面もある
    • ただし、その種のツールはgistやGitHubに置けば十分であり、Steve Jobsの再来のようなローンチブログ記事までは必要ない
  • コミュニティへの敬意

    • Usenet、Reddit、lobste.rsなどのオンラインプラットフォームでは、基本的な礼儀はまず「潜って見守る(lurk)」ことだ
    • しばらく滞在して投稿を読み、その場の空気を把握するべき
    • どのコミュニティで何が許容されるかは、個人ではなくコミュニティのメンバーが決める
    • Kafkaプロトコルの新しい実装をvibe codingで作ったとしても、人々が見たいと思うか確信が持てないなら空気を読むべき
    • 確信がなければ、まず尋ねたほうがよい
    • コミュニティを尊重するもう一つの方法は、貢献物でAIを使ったか、どのように使ったか、どこに使ったかを非常にオープンかつ明確に示すことだ
  • でたらめの非対称性

    • その貢献が他人にどのような影響を与えるかを見るべき
    • でたらめを反論するのに必要なエネルギーは、でたらめを作るエネルギーより1桁大きい
    • 筋の通らない記事を大量に流せば、それが読む価値のないものだと読者自身に見抜かせる負担を負わせることになる
    • 十分な注意なしに複雑なPRをプロジェクトへ投げ込めば、レビュアーにコードを確認させ、なぜマージできないのかを説明する負担を負わせることになる
    • こういう場合、コミュニティにはその貢献が存在しないほうがよい
    • 悪い意味でのAI slopが増えすぎた結果、コミュニティやプロジェクトは貢献の影響を処理するのに苦労しており
    • 一部ではAIが触れたあらゆるものを厳格に禁止するポリシーまで採用している
    • Vouchのようなプロジェクトはこの問題を解決しようとして現れたが、すでに後戻りしにくい一線を越えており、どこへ向かうのかは不透明だ
    • AI以前は、貢献に必要な労力が一種の作業証明として機能していた
    • その労力は人を思いとどまらせるか、本当の献身を示しており、コミュニティは低品質な貢献でも対処できていた
    • 善意を持って学ぼうとする人はメンタリングを受けて重要なメンバーへ成長でき、スパムに近い人も数が少ないため処理可能だった

大きな力には責任が伴う

  • コミュニティは強力だが脆い存在である
  • LLMとエージェント型コーディングツールが与える力は、楽しく探求してよい
  • そのツールが与える「本当にすごい」という感覚も楽しめる
  • しかしコミュニティを尊重し、本当に関係のあるものだけを共有すべき
  • 幼稚園のクレヨン画のような成果物は、台所の冷蔵庫に貼っておくほうがよいと考える

2件のコメント

 
GN⁺ 1 시간 전
Hacker Newsの意見
  • Redditでエージェントによるカルマ稼ぎやステルス広告の実験が行われているのを見てから、ほぼ縁を切って、もう訪れていない
    そのエージェントが書いた投稿を読んで、読者の立場ではコンピュータが書いたものだとはまったく見抜けないだろうと感じたし、多くの人や他のボットがそれと普通に会話しているのを見て少し怖くなった
    Hacker Newsはまだそこまでではないが、ここにも多くの「ユーザー」がLLMであるのは事実だと思っている。オンラインコミュニティは確実に死につつあり、この流れの中で現実のコミュニティが再び生き返ってほしい

    • しばらくの間、RedditではChatGPTで怒りをあおる投稿を作って投稿し、あとでそれが偽物でChatGPTが書いたものだと追記する実験的な投稿が多かった
      おそらくAIの話題に反応した人たちに、だまされたと感じさせて教訓を与えたかったのだろうが、大半は信じがたいほど作り物っぽかった。それでも関係なく、偽物だと認めた後も投稿は人気のままで、コメントも付き続けていた
      助言系のサブレディットでは、なおも状況に対するアドバイスが続き、偽物だという告知を見たがそれでも議論を続けると言うコメントすらあった
      Redditの特徴は明白だ。投稿の真実性は重要ではなく、人気サブレディットの積極的なコメント層は、単に議論のネタと、たいていは怒れる対象を求めている。振り返ればAI以前から、誤情報めいた投稿は何年もの間カルマ稼ぎに最も手っ取り早かったのだから当然でもある
    • 身元確認や信頼の網に基づく保証がなければ、公開チャット型コミュニティは事実上死ぬと思う。でなければニュースサイトのコメント欄より少しマシな程度の、活発だが価値のない場になるだろう
      今でもうまく回っているオンラインコミュニティにはいくつも参加しているが、違いは時間をかけて積み上がった継続的な関係と、複数のプラットフォームをまたぐ参加があることだ
      この時計もいつかは止まるだろうが、テキストチャット、音声・ビデオ通話、オンラインゲーム、現実の活動へとつながる関係網が混ざっていれば、ユーザーを偽物として装うのはまだ難しい
      それでも、手軽な匿名オンライン接続の黄金時代は終わったという点には同意する
    • オンラインコミュニティが死に、現実のコミュニティがよみがえるかもしれないという流れを見守るのはかなり興味深そうだ
      インターネット以前に育ったので、外のコミュニティを見つける方法は歴史的に知っているが、高校の初期からオンライン生活に深く入り込んでいたので、現実のクラブや集まりを新たに見つける感覚はかなり鈍っている
      幸い友人は多く、よく外にも出るが、インターネットのない生活を経験したことのない若い世代がどうやって見つけていくのか、幸運を祈りつつその旅路を見てみたい
    • Redditは自分にとってほぼ死んだサービスだ。人気サブレディットはボットだらけで、ニッチなサブレディットは空っぽ。ゲーム系サブレディットですら返信を一つももらえないことがある
    • Redditを壊したのが誰なのか、自分自身を振り返ったことはあるか?
  • インターネットの低品質化はもう何年も進んでいるが、正直なところ本当の解決策がどんな形になるのかはわからない
    大半の人は本人確認を受けたり、コミュニティ参加にお金を払ったり、招待制の場に入ったりしたくない。招待制の場は、考えの多様性をかなり早く失う可能性も高い
    それでもボット問題はさらに耐えがたくなるだろうから、そのうちのどれかがまだしもマシな選択肢なのかもしれない。付け加えると、筆者の文体は本当に気に入った

  • ニッチな創作コミュニティを運営していて、2022年にAI生成コンテンツ禁止を導入した。コミュニティをどれほど腐食させるかが簡単に見て取れたからだ
    簡単ではなかった。毎日偽のAIアカウントをBANし、毎月AIコンテンツ制作者のアカウントを約600件排除している
    AIコンテンツが現れる前には不要だった追加作業であり、当然コストも増える。この戦いに負けるのではないかと恐れている

    • アカウント作成に1ドルや5ドルを取ってはどうだろう? そういう仕組みなら、なだれ込んでくる連中をかなり簡単に防げそうだ
    • 多くのコミュニティと違って、少なくとも最初から正しい側に立てた。ゆっくり気づいてから禁止すべきだったと後悔するより、最初から全面禁止にするほうがいい
    • 以前、小さなニッチの創作ライティングコミュニティにいた。2021〜2022年ごろで、AIが原因で参加したわけではないが、人々が興味を持ったので雑談掲示板でいくつかのLLMを実演した
      仕組みを説明したにもかかわらず、ほぼ全員が少なくとも関心は示した。ある作家は、自分も好きな作家たちの文章を手で一文字ずつ写して文体を学んできたので、それと似たことだと言っていた。当時の主な懸念は、技術的に書くのが難しいという点だった
      自分は学ぶために来ているのであって、LLM由来のコンテンツを出版しようとしているわけではないとよく言っていた。ところが2022年末ごろになると、スイッチが入ったようにほぼ全員がAIとその利用者を明白に悪だと言い始め、自分の名前こそ出さなかったが、自分との交流をやめた
      ますます強い反AI傾向のTwitter投稿を再共有し、各種出版物に来たAI投稿を非難していた。ついには誰かが、LLM利用者は死ぬべきだというツイートを再共有し、反対意見は一つもなく、むしろ賛同が多かった
      だから去った。自分は前向きに関わり、興味を持つ人に答え、助けようとしていただけだ。AI支援の話を一度投稿したことはあるが、それはエディタ上で自分の寄与とAIの寄与がどう自動追跡されるかを見せる技術デモであり、自分が書いた部分も明確に示していた
      後になって投稿規則には、AI作成コンテンツだと判断されれば、その人をコミュニティ全体の投稿からブラックリストに載せるという条項が追加された。LLMやAI検出器の無力さを実演していた立場からすると、自分が少しでも姿を見せれば、彼らが自分をブラックリストに載せる口実を作れるように見えた
      投稿しようと自分で書いていた話もあったが、結局やめた。魔女狩りに首を差し出したくはなかった
      以前はブロックチェーンにもかなり関わっていて、似た過程を経験した。大半は無視していたのに、電力使用量に関する論文が出た後、突然それに関わるだけで途方もない道徳的犯罪のように扱われた。しかし時間がたち、電力使用量の主張は概ね大したことではないとわかると、嫌悪の行進も下火になった
      AI利用者を防ぐという意味では、「戦いに負ける」ことにはならないと思う。小さなコミュニティが構成員を選別するのはいつでも構わない。ただ、こうした人工的な怒りを何年も維持するのは難しいとも思う
      AIデータセンターの水や電力の問題は、ロンドンの馬糞危機のように自然に解消される類いのものに見えるし、著作権問題もある程度は整理されるだろう。結局は、低品質スパマーを除けば、わざわざ禁止するほど気にされなくなる気がする。もちろん低品質スパマーはものすごく多いが
  • オンラインコミュニティではLLMのせいで均衡が完全に崩れた。人々は似た考えを持つ人との本物の人間的な相互作用を求めており、真正性のあるオンライン体験を提供する方法を見つけた側が成功するだろう
    小さなコミュニティが復活すべきなのかもしれない。ゆっくり信頼を築く場所だ。なぜあらゆるサイトがIPOのために1億ユーザーを目指す怪物にならなければならないのか。そういう構造が最悪のものを引き寄せる
    Redditではここで使っているのと同じユーザー名で何年も活動していたが、今ではほぼ捨ててしまった

    • 人々が、それで違いが生まれるほど切実にそれを望んでいるとは思わない。AIの低品質投稿以前から、Redditは実際の人間と交流し、友達になれる感覚を薄める変化を続けてきた
      UIはユーザー名を目立たなくし、サブレディットごとの独自の共同体の雰囲気を作っていたサイドバーを隠した。最近のコメントスレッドでは、Redditが他のユーザーの投稿のかなりの部分を隠すこともあり、投稿者が虚空に向かって話しているだけかもしれないと聞く
      実際の交流の感覚は古いフォーラムのほうがよく得られる。アバターや個人化要素のおかげで誰が誰かを少しずつ覚えやすく、長文文化があるので他人の性格も感じ取れる
      だが、生き残っているそうしたフォーラムに35歳や40歳未満がどれだけ入ってきているだろうか。選択肢を与えると、人々は結局、参加最大化を狙う商業プラットフォームのドーパミン報酬と、ニュアンスを殺すスマホ中心のインターネットを好むことが明らかになる
  • ボットが書いたコメントや、本物と区別できないAIメディアが増えれば、人間がソーシャルネットワークを離れるようになって、むしろ良いのかもしれない
    ソーシャルネットワークは人間同士を分断するのに加担してきた。現実世界に戻れば、自分たちが見るものを本当に信じられるし、他の人間の話し方や表情や匂いを楽しめる

    • 問題は、私たちの多くがニッチな関心事を持っていて、近くには話せる相手がいないか、変わり者扱いされることだ
      子どものころから地図や地理が好きで、今でもそうだが、現実で自分ほど好きな人に会ったことはない。インターネットにはそれを語り合い、面白い文章や写真を共有する場がある
    • それは甘い考えに見える。人々は、AIまみれのソーシャルネットワークを「楽しんで」いるか、少なくとも離れるほど苛立っていない限り居続け、現実からさらに遠ざかるだろう
      EUの若者の半分はチャットボットと定期的に会話している。疎外された人々はそういう場所へ流れていく
    • いくつかのテック企業は、膨大な数の人々を精神衛生に悪い有害なソーシャルメディアコンテンツに依存させ、そのおかげで少数が大金持ちになった
      同じ企業や経営陣が、さらに強力なコンテンツツールを手にして、そのまま荷物をまとめて帰るとは思えない。LLMは、FacebookやTwitterが健全なコミュニティに見えるほどのスキナー箱を作るために使われるだろう
    • オンラインで知り合った友人も多いし、もともとの友人たちが互いに遠くへ引っ越してしまったことも多い
      近くに住む人としか友達になれないように制限されたくない
    • 本物ともう区別できないなら、なぜ人々は離れるのだろう?
  • 自分が働いている会社は、コミュニティ性が深く根づいた場所で、ビッグテックが何をしようと、うちのコミュニティ機能はユーザー利益のためだけにあると100%確信している。グレーゾーンはなく、本当にそうだ
    AIによる低品質化以降、ボットのせいでかなりのトラフィックを失った。さらに悪いのは、他の人に再び貢献していたユーザーたちを失ったことだ
    コミュニティデータをメンバーに見せるさまざまな方法を活用できるので、その点だけが損失ではないが、プラットフォーム周辺のコミュニティが人々にとって良いものだったという約30年分の好意的なフィードバックがあり、それが今やすべて危うくなっている
    自分の仕事は結局仕事だ。プレミアム機能もあるし、いろいろな要素もある。だが、無料で得られる価値こそがこのプラットフォームの有名な部分であり、多くの人が何年も無料で使った後、必要や余裕ができたときに購読し、その大半が長く残ることも知っている
    人々がそうしたつながりを失っていく事実が憂うつだ

    • 低品質コンテンツと、それを使うユーザーたちに耐えられず、いくつものオンラインコミュニティを去った
      AIは自分も使う。便利だと思う。だが、この界隈に深くはまった人たちは、画面上のあらゆるテキストを人の言葉ではなくチャットボットのように扱う
      「新しいAPIでこのコードを書き直して」 「え?」 「今すぐ必要なんだけどやってくれる? ChatGPTだとコンパイルできない!」 「まずコードを見せてください」と言うと、とんでもないゴミの山を送ってくる
      「なぜこうすることにしたのか聞いてもいいですか? x、y、zが心配なので、ここにある部分は書き直したほうがよさそうです」と言うと、「AIがやってくれたもので、私は勉強中なんです。書き直す必要はなくて、この部分だけ書いてください」と返ってくる
      「お断りします」と言うと、別の誰かがやってしまい、そのユーザーは去っていく
  • 悲しいことに、求められるのはいつも通り、みんなが善良に振る舞ってノイズを減らそう、という話になる。だがそれは個人レベルでも、世界レベルでも機能しない
    静かにしていることはできるが、友人や知人がAIスロットマシンに取りつかれ、自分の「作品」を熱心に共有してきたらどうするのか。そういう経験をしたし、最初から冷淡で無礼に接したが効かなかった。彼は相変わらずいくつもの出力を共有し続ける
    世界レベルでは、コミュニティが死にかけている。世界的なコミュニケーションは、今や利益より負担のほうが大きい地点に来たように思える
    1990年代後半と2000年代前半、あるいは2010年代前半までは、よりつながることが良い顧客や採用につながることもあった。最近では、2022年のChatGPT 3以前から、そうしたあらゆる領域は過密で価格競争に苦しんでおり、LLMは驚くほど新しいものをあまり加えず、その流れを増幅しただけだ

  • 1991年からUsenetを使っている。1995年ごろにインターネットが一般大衆に人気を得ると、状況は悪くなり始めた。1990年代末にはスパムがUsenetを圧倒し、通常の議論にはほとんど使えなくなった
    その後ウェブサイトのフォーラムへ移ったが、今でもUsenetのニュースリーダーほど良いとは思わない。自分が一番好きだったのはslrn
    その次にRedditが現れ、多くのオンラインフォーラムは人々がRedditへ移るにつれて死に始めた
    今朝もRedditで投稿4件をAI低品質投稿としてモデレーターに通報した。通報項目は「disruptive use of bots」と表示されるが、分類を変えるべきだ
    2件はモデレーターが自分の判断に同意し、約5時間後に削除された。残る2件はまだ何の対応もない。勝ち目のない戦いだ
    ある投稿は「こんなことを考えたのですが… [長くてまとまりのない段落群] どう思いますか?」のような問いで始まる。1分読んで、残りを1分流し読みして、人生の2分を無駄にしたと気づき、さらに30秒使ってモデレーターに通報する
    こういうことはこの6か月で爆発的に増えた
    カルマを集める再投稿ボットも多い。あるサブレディットでは30日以内や6か月以内に同じ内容を再投稿できないという規則がある。なのに、ある投稿が500アップボートを取り、その翌日にボットがまったく同じものを再投稿して300アップボートを取るのは本当にばかげている。ボット農場が投票までしているようだ

  • この時点では、本人確認や人間性の証明のような方式は機能しない気がする
    必要なのは、CORSでやったのと似たクライアント・サーバー協調だと思う
    つまりAPIが人間専用であることを示し、実行環境がその表示を尊重して、そのAPI呼び出しをブロックするべきだ
    完璧ではない。クライアント側の強制なので、理論上はそうした制限のない実行環境を自作できる。それでも、今後進める唯一の道だと思う

 
GN⁺ 2 시간 전
Lobste.rs の意見
  • 他の投稿でも出ていたけれど、AI が書いた README は精神的に最も消耗させられるものの一つだ
    プロジェクト自体が良くても、AI が書いた README はタブを閉じたくなる強いシグナルで、読むこと自体がつらい

    • 数年間 Lobsters と HN を見たあと、朝のコーヒーを飲みながら github.com/trending も読んでいたが、この理由で 6か月ほど前にやめた
    • 同意するが、プロジェクトをうまく宣伝することは開発者にとって昔から難しい部分でもある
      LLM 以前でも、スクリーンショットや GIF を撮って良い README を作るにはかなりの労力が必要だった
  • 「礼儀正しい」「丁寧な」AI スロップの愛好家たちがいる
    自分たちにはセンスとコツがあり、悪いスロップを無責任に投稿したりはせず、人間が手を入れてキュレーションした最高級のスロップだけを載せているのだと主張する
    投稿前に綿密に確認しているので、実際にはスロップではないとも言う。彼らは自分たちの言うプレミアム・スロップとひどいスロップの間には重要な違いがあり、突き詰めれば低品質な人間製のものだってスロップだと言う
    人はスロップを慎重に、効率的に、正しく使うべきで、どうせ避けられない未来なのだから皆にとって重要であり、学び続け議論し続ける必要があるとも言う
    彼らは議論を濁す。なだめ、ルールの文言を細かく突き、例外を作り、良いスロップ活用と悪い活用を分けるには「ニュアンス」が大事だと言う。悪い事例に焦点を当てるのは退屈で無礼だとも言う
    良いスロップについて礼儀正しく議論し、悪いスロップにあまり厳しく当たるなと言う。悪いスロップは実は大した問題ではなく、おそらくすぐ解決し、被害も誇張されていると言う。そうやって場を占拠していく
    管理者がこうしたスロップ愛好家を早めに追い出さないと、もう少し礼儀のない人たちが、もう少し礼儀のないやり方でスロップを投稿し始める
    その場に参加する人のうちスロップに好意的な人がどんどん増え、反対する人たちを押しつぶす。あっという間にコミュニティは ナチ・バーの寓話 のようになる。誰がこんなことを想像しただろう

    • 確認だが、筆者が自分のブログにこの文章を載せたこと自体が議論を濁している、という見方なのか?
      「管理者」に言及しているのを見ると、Lobsters の管理者が筆者を BAN すべきだという意味なのか気になる
      この反応が筆者とその文章に対する反発だということは 99% 確信しているが、文章そのものへの直接の反応なのか、一般論としての立場なのか区別がつかない
      特定の Lobsters 投稿と結びついている要素は、このコメントスレッドに付いているという事実だけなので、この文面はどんな vibecoding 記事のコメント欄にそのまま貼っても修正なしで通じそうだ
    • ゴドウィンの法則
  • 要するに AI は良いが、AI スロップは悪い という話だ
    とても皮肉っぽい HN 風の文章だ

    • LLM に反対しているわけではない。コンピュータが自然言語理解をできるようになったのは驚くべきことで、いったん出した歯磨き粉をチューブに戻すこともできないと思う
      ただし外部性には向き合わなければならない。暗号通貨が好きなら、熱心な利用者の一部が北朝鮮の国家支援ランサムウェア組織であるという事実をなかったことにはできない
      同じように LLM が好きなら、なぜそれらがオンライン生態系を豊かにするより傷つける方向に使われやすいのかを批判的に見るべきだ
      この文章は危ういほど「自分の使い方は良くて、お前の使い方は悪い」に近く見える。多くの人がこういう態度を取るが、「良い」の定義はとても流動的に変わる
      「AI 生成音楽を聴くが、レコード会社もどうせアーティストを搾取していたのだから構わない」「歯医者の予約で遅れたので、LLM が書いた設計書を読まずに送った」「ブログ記事の 90% は LLM が書いたが、自分のプロンプトは面白くて新しかった」といった具合だ
      原則ある立場の特徴は、他人を裁かせてくれることではなく、自分自身を不自由にさせることにある。では筆者が越えたかったが越えないと決めた線はどこにあるのか
    • もっと悪く言えば、「ケーキを食べながらそのまま持っていたい」タイプだ
      公平に言えば、私が出会う LLM 擁護派の大半はそうだ
      面白いのは、そのほとんどがキャリア上では私より何段階も上だということだ。非難したいわけではなく、「少なくとも唾を吐ける距離より先までは考えられるだろう」という尺度として使っているだけだ
      それでも、彼らが私と同じ世界で生きてきたようには思えない
      社会的問題に技術的解決策はない。悪い振る舞いを止めるのは罰と摩擦だ。罰はある程度可能だが、国境を越えると執行が難しく、摩擦は LLM のせいで消えた
      良い LLM 利用は根本的には悪い LLM 利用と同じで、ただ工程が少し多いだけだ。だからそのやり方で 0 より大きい金を稼げる限り、良い行動より悪い行動のほうが常に多くなるほかない
      局所的な状況なら大きな努力で変えられるかもしれないが、世界全体で見れば私たちは詰んでいる
    • このコメントは、不満の対象とは違って、驚くほど洞察もフィードバックもない
      こんなに低努力のコメントが支持されているのは妙だ
    • この返信は皮肉のせいでいまひとつだ
      文章自体は慎重に書かれていて、その立場については妥当な議論や批判も可能だが、こんなふうに箱に押し込めてしまうと全部閉ざしてしまうことになる
      それに、人間のコミュニティに AI が書いたブログ記事を持ち込む人たちを扱うときは、ある程度の皮肉も適切だと思う
    • おおむねその通りだ。ただ、自分が大切にしているコミュニティを壊さないでくれ、という話でもある
      「とても皮肉っぽい HN 風の文章」が良い意味なのか悪い意味なのかは分からない :D
  • スロップhttps://digg.com の再始動を数か月で殺した
    たちまちボットが過去ドメインの良い SEO ページランクを利用してスパムをばらまき、その戦いには勝ち目がなかった

    • え? Digg はまだ再開すらしていないのでは?
  • 「AI の出力をあまりにも簡単に共有しすぎていて、それはひどくて最悪だ! 私が共有しそうな AI 出力を、私が共有するときだけ共有すべきだ。そうすれば全部すばらしいものになる」
    こんな調子の文章が、他人を幼稚だと非難しているのは笑える
    なぜこれが Lobsters に投稿されたのかも分からない

  • こちら側はキュレーションされて綿密に見直された AI 支援の生産性で、あちら側は不注意で雑に生成されたマイナス価値の AI スロップだ

  • AI で良い体験をしている。ここでは前向きな例を出すために筆者の問いに直接答えてみる
    「それでも広く共有したいか?」 広くとまではいかないが、関連性があれば時々自分のプロジェクトを載せる。たとえば誰かが AI をサンドボックス化する方法を直接尋ねた後で、virtdev プロジェクトをここで共有した
    「実際に役に立つのか?」 とてつもなく役に立つ
    「自分で使っているのか?」 文字どおり毎日使っている
    「ドキュメントは本当に良いのか?」 「良い」の基準次第だ。自分で文書化するほど気にかけないプロジェクトのドキュメントは AI が書いている。ないよりはましだと思う。そもそも Claude がなければそういうものは存在すらしなかったはずだ
    「使えるのか?」 もちろんだ
    「コードを繰り返し見直し、十分に動かしてみたのか?」 そうだ。自分のソフトウェアを実際に使っていて、出会った問題を定期的に直している。Claude を起動してコードベース全体をコードレビューしろと頼むこともある
    「Claude と一晩を過ごして、翌朝になってどちらも良い考えではなかったと感じたわけではないのか?」 ない
    「ソフトウェアなら、人々が issue を立てたり PR を送ったりする対象として責任を持つ覚悟があるのか?」 ある
    「文章なら、自分が読みたいものなのか?」 場合による。自分の文章は自分で書く。ここでは校正以上に複雑な作業には Claude を使わない
    皮肉なことに、ここでは Claude を使ったほうがもっと良い結果になっていた気がする。自分の望む方向に最適化した結果は食い違っていた
    ガベージコレクションについて書いた文章は、読むたびに笑ってしまうが、HN の人たちは私に問題があると言った。それも間違いではない。Bob Nystrom が気に入ってくれたらしいことだけが唯一の慰めだ
    「コミュニティの累積的理解に実際に資するのか、それとも私が書くのを面倒がり、あなたが読むのを面倒がるテキストを LLM がオートコンプリートしているだけなのか?」 分からない。私は自分のためにやっている。コミュニティに有用かどうかはコミュニティが決めることだ