もうこういうものが必要なのかなと思います。AIがその時々に合ったパフォーマンス測定用のスクリプトをかなりうまく書いてくれるので……

 

ストールマンはかなり原理主義的なので、bullshit generator という表現を使ったのだと思います。皆さんご存じのとおり、「確率的オウム」という用語と、言いたいことは同じでしょう。

しかし、現在の確率的オウムである LLM が人類の生産性を劇的に向上させているのも事実です。そして人々はコンピューティングの自由よりも産業革新のほうに強い関心を持っているでしょう。人間だって、確率的オウムではないという保証はありませんし。

 

「vibe coding をするとしても、結果をレビューできるようにするには、自分がよく分かっている言語でやるべきだ」

コメント欄にとても重要な一文がありますね。

 

シャットダウン制が施行された後に廃止された国の立場から見ると、オーストラリア版シャットダウン制とほとんど変わらない。一律規制をきちんと機能させるには個人情報にまでアクセスする必要があるが、オーストラリア政府がそんなことをするのだろうか

 

ソースコード公開…? それならあのDeepSeek!!!

 

.Stallman が誰で、何を主張しようとしているのかを誤解しているように思います。

  1. この記事の意図は、LLM は確率的な性質のため semantic grounding がなく、誤ったことでももっともらしく語る点に注意を促すことです。誰でも誤りを犯しうるからといって、LLM と同列に置くことはできません。
  2. 内在する原理を理解することと、ソースコードを入手することは 完全に 別です。ChatGPT は proprietary software であり、そのため仮にそうする能力があっても、ChatGPT を直接インストール・改変・配布できないことが問題です。
  3. Stallman は free software の概念を創始した急進的な自由主義者です。独善的だという面にはある程度同意しますが、他人のサーバーで計算することが問題だという話が、どうして他人の頭の中の考えが自由を侵害するという話につながるのかは理解できません。

Stallman は急進的で、いつも正しいことだけを言うわけではありませんが、この記事で提起されている問題はすでに活発に議論されているものです。単に bullshit と切って捨てられる程度の議論ではありません。

 
  1. 「真偽に関係なく出力を生成する」
  2. 「ユーザーが実行ファイルやソースコードを入手できない非公開ソフトウェア」
  3. 「他人のサーバーで計算を実行する方式は、ユーザーのコンピューティングの自由を損なう」

この定義に従えば、従業員をはじめ私の手を介さず他人の頭脳を介するサービス業、クラウドサービス、さらには電話まで全部使ってはいけないという話と大差ありません。

1番は、現実に存在するあらゆるものが真偽に関係なく出力を生成し得ます。真実の出力をしようと意図したシステムでさえ、そうできないことがあります。私たちはそれを「ミス」と呼びます。

2番。実行ファイルやソースコードを入手できなければ使えないということが、システムを使うためにはその内在する原理を知らなければならないという主張なら、物理学や電気電子工学を専攻していないすべての人は今すぐスマートフォンとコンピューターから手を放さなければなりません。相対性理論を学ばずに位置追跡機能を使ってはいけない、という話です。果たしてストールマンは、自分の髪を切ってくれる美容師の頭の中の設計図を持っているのでしょうか。

3番の言う通りなら、この人は誰の考えも信じない独善主義者です。他人の考えと、そこから下された結論はすべて「私」の考える自由を侵害するのだから、自分の頭で考える自由を侵害する、ということになるのでしょう。

生成AIが本当に知能を持っているのかという点について、軽々しく知能を持つ存在だと信じるのはやめようと言うことはできますが、その考えと肩を並べるこじつけの論理は、ただのbullshitですね。

 

知るとは何ぞや……

 

もし人工知能が究極的に魂を持ちえないのだとしたら、その知能が真実を追求する人間の知能に必ず似ていなければならない理由があるのでしょうか。そもそも、私たちが知的活動と呼ぶ行為のかなりの部分は、虚偽や幻覚に基づいています。現代社会の人間もまた、現象を認識できないために、あるいは意図的に、虚偽によって他者の人生に影響を与えています。

 

正直、ストールマンが LLM を好きそうだなんて、一度も思ったことなかったです(笑)

 

韓国でもキックボードが歩道を占拠して同じような社会問題を起こしていますし、配送ロボットもそうなるかもしれませんね。それでも低速ですし、違法に放置されることはないので、キックボードよりはましな気がしますが……。まずはキックボードの規制が優先だと思います。

 
loblue 2025-12-11 | 親コメント | トピック: Googleで14年間働いて得た21の教訓 (addyo.substack.com)

1つ目からとても重要な教訓ですね。
最近、身にしみて感じています(笑)

 
secret3056 2025-12-11 | 親コメント | トピック: Anthropic、MCPをLinux Foundationに寄贈 (anthropic.com)

私も似たような考えです……とりあえず、Linux Foundationがやることが多すぎます。
Servoのように見捨てられたものまで引き受けていて……

 

Anthropic、MCPを寄贈し、Agentic AI Foundationを設立

Hacker Newsのコメントがこちらにまとまっているので、あわせてご参照ください

 

こうして見ると、未来が前向きに感じられますね(笑)

 
crawler 2025-12-11 | 親コメント | トピック: Anthropic、MCPをLinux Foundationに寄贈 (anthropic.com)

今見てきましたが、これはMCPそのものに対する不信感から生まれた反応ですね。
「今はかなり使われているとしても、これがどれだけ続くのか?」というニュアンスです。

しかし、GoogleとOpenAIがMCPをサポートしている時点で、こうした反対は惰性による反対だと思います。
私も最初はFunction Callingと大差ない言葉遊びのように感じてあまり好みではありませんでしたが、企業が統一していくのを見て、これなら学習段階から意味があるんだろうなと思いました。
それでもまだ、ただ反対するだけの人たちがいるのは不思議ですね。

 
mhj5730 2025-12-11 | 親コメント | トピック: Googleで14年間働いて得た21の教訓 (addyo.substack.com)

良い内容が本当に多く、洞察に満ちた文章が多くて感嘆しました。主要な文を太字で表記してくれていたのも、さらに良かったです。

"正しさという短期的な感覚は、喜んで協力してくれる同僚たちと一緒に何かを築くという長期的な現実より、はるかに価値が低い。"

"戦略的な集中を行うべきであり、変えられないものに使うエネルギーは、変えられるものから奪ってくるエネルギーである。"

仕事だけでなく、人生にも応用しやすい内容がたくさんありました。良い文章をありがとうございます。

"コードは、障害発生時の午前2時に保守対応する見知らぬ人たちのための戦略メモなので、理解しやすさを最適化できるべきだ。"

"推進力が明確さを生み、分析麻痺は何も生み出さない。"

 
jk34011 2025-12-11 | 親コメント | トピック: Anthropic、MCPをLinux Foundationに寄贈 (anthropic.com)

なぜそういう反応になるのでしょうか?
よく分かっていない立場からすると

  1. 標準化しようとしているのかな
  2. これを公開するの?
    という感じだったのですが、厄介払いしているという反応が出る理由が気になります。
 

痛い目に遭わないと目が覚めないんでしょうね。