cnaa97 2025-12-11 | 親コメント | トピック: 複雑な業務をうまく委任する方法 [翻訳記事] (blogbyash.com) とても良い内容です。 roxie 2025-12-11 | 親コメント | トピック: パントン、2026年のカラーを公開:「クラウド・ダンサー」 (pantone.com) ???: It's a White. laeyoung 2025-12-11 | 親コメント | トピック: パントン、2026年のカラーを公開:「クラウド・ダンサー」 (pantone.com) こうして見ると、どの色もきれいに見えますね jhk0530 2025-12-11 | 親コメント | トピック: パントン、2026年のカラーを公開:「クラウド・ダンサー」 (pantone.com) wwwwwwwwww gooksangom6394 2025-12-11 | 親コメント | トピック: リチャード・ストールマン、「ChatGPTを使うべきでない理由」 (stallman.org) 企業が市場から利益を得た分だけ市場に貢献し、技術の発展が再びそのような発展を可能にした社会に還元することは、私も望ましいことだと考えます。 生成AIについての基礎的な枠組みはすでに公開されており、そのうちOpenAIが公開していない部分は企業の営業秘密に属すると考えます。企業や技術が社会に再び貢献することは、表向きには感謝の表現であり共生のメッセージですが、実質的には企業の持続可能な成長のための市場への再投資だと見ています。そうした観点から見れば、AI企業は稼いだお金で教育や社会インフラに貢献するのが望ましいのであって、企業が持つ資産も同然のAIのコピーをすべて公開せよというのは、金の卵を産むガチョウがもたらす金の卵の恩恵を無視して、まず腹を裂けと求めるようなものではないでしょうか。金の卵はいくらでも出てきます。それを分け合えばよいのであって、どうしてもガチョウそのものを差し出せと言うのなら、いったい誰がガチョウを育てようと思うのか、というだけです。 AIがどのように動作するのかは、すでに電磁気学のように明らかになっています。スマートフォンには電磁気学の基礎知識だけでなく、各企業が明かせない営業秘密としての技術も含まれているはずです。この点を尊重せず、生成AIを魔女狩りのように悪いものとして決めつけるのは、理解できないだけです。 返信をくださった方々のお話のおかげで、いろいろ調べ、多くのことを考えるようになりました。ありがとうございます。 mytory 2025-12-11 | 親コメント | トピック: Utility First, Component Second (mytory.net) ありがとうございます :) aobamisaki 2025-12-11 | 親コメント | トピック: WindowsゲームをArmへ持ち込む取り組みの設計者、Valve (theverge.com) (少なくともゲーム分野では)Windowsの影から完全に抜け出せるその日を、私も楽しみにしています。 edunga1 2025-12-11 | 親コメント | トピック: Googleを作る方法 | How To Start Google by Paul Graham[翻訳] (commits.world) > 本当にプログラミングが上達する瞬間とは、「この機能をぜひ入れたいのに、やり方がわからない」という状況にぶつかったときだ。そのときの学習速度は、授業とは比べものにならない。 個人的なことに取り組むべき重要な理由ですね! foriequal0 2025-12-11 | 親コメント | トピック: リチャード・ストールマン、「ChatGPTを使うべきでない理由」 (stallman.org) 私は、社会に大きな影響を与える技術や知識は社会に還元されるべきだ、という枠組みで見ています。ちょうど医薬品のジェネリックのようにです。ジェネリックが制限されれば、ダラプリムのような事例が増え、一部の利益のために社会全体が損をすることになるでしょう。 そして電磁気学とスマートフォンについておっしゃっていましたが、電磁気学のような基礎学問は、知識が第三者によって検証可能な形で公開され、社会に共有されているのではないでしょうか。だからこそ、電磁気学の知識がない一般の人々でも、このように一歩一歩積み上げられてきた信頼に基づいてスマートフォンのエコシステムに参加できるのであり、その結果としてエコシステムの規模が拡大し、市場が生まれ、人類がその恩恵を受けるのです。 svg1773 2025-12-11 | 親コメント | トピック: リチャード・ストールマン、「ChatGPTを使うべきでない理由」 (stallman.org) 「中国語の部屋」実験の頃からある定番ネタですね(笑) crawler 2025-12-11 | 親コメント | トピック: パントン、2026年のカラーを公開:「クラウド・ダンサー」 (pantone.com) 白にもいろいろあるとはいえ、ちょっとダサいですねwww radiostar11 2025-12-11 | 親コメント | トピック: パントン、2026年のカラーを公開:「クラウド・ダンサー」 (pantone.com) ネットでは、薄汚れたマルチーズ色って呼ばれているようですね https://www.instagram.com/p/DSBt6d_j4Di/ kernel0 2025-12-11 | 親コメント | トピック: リチャード・ストールマン、「ChatGPTを使うべきでない理由」 (stallman.org) エプスタインを擁護して全部やめたのかと思ったら、また出てくるんですね、はは。 nemorize 2025-12-11 | 親コメント | トピック: Utility First, Component Second (mytory.net) よく読みました。 lazyhack 2025-12-11 | 親コメント | トピック: リチャード・ストールマン、「ChatGPTを使うべきでない理由」 (stallman.org) 他の人が言ったならたわごとに聞こえるだろうが、ストールマンが言うなら納得できる。 colus001 2025-12-11 | 親コメント | トピック: リチャード・ストールマン、「ChatGPTを使うべきでない理由」 (stallman.org) 意図を持って判断を行う人間は、主体であると同時に客体として意志を形成します。私は、それが知能というものだと思います。知的活動に有用だからといって、それを知能だとするのは過大解釈でしょう。 girr311 2025-12-11 | 親コメント | トピック: シカゴの歩道を占拠した配達ロボットをめぐり、運行停止を求める請願運動が開始 (blockclubchicago.org) ソウルにもあるけど、こいつは人を避けるんじゃなくて、人がこいつを避けなきゃならない感じでちょっと微妙でしたね。 barrelhouse 2025-12-11 | 親コメント | トピック: シニアならグラフを1つは責任持って担当しよう (staysaasy.com) 成果や目標を数字で表現する能力が重要だと思っていましたが、この記事ではグラフでまで表現しなければならないと言っていますね。相手にとって理解や信頼の面で納得できる部分だと感じました mhj5730 2025-12-11 | 親コメント | トピック: リチャード・ストールマン、「ChatGPTを使うべきでない理由」 (stallman.org) その通りですが、そうは言ってもLLMは驚くほど高い確率で正解を出しています。 gooksangom6394 2025-12-11 | 親コメント | トピック: リチャード・ストールマン、「ChatGPTを使うべきでない理由」 (stallman.org) 根本的に、利用者がソフトウェアのソースコードあるいはコピーを持てなければならないと言うことの根本的な根拠は、結局のところストールマン個人の信仰なのではないでしょうか。 まるで、すべてを無料で公平に分け合うことができ、そうあるべきだという、きわめて急進的で理想主義的かつ純粋に理論的な信仰を打ち立て、その砂上の楼閣に少しでも影を落とすものは、それが何であれまるで異端として扱うかのような姿勢には、同意しがたいですね。人類はすでに、経済体制に関してこれとよく似た病を一つ抱えています。 生成AIの結果が確率論的であり、おっしゃる semantic grounding がないという点には同意しますが、結局は程度の差にすぎず、人とコミュニケーションしたり議論したりする場合でも、内容の判断と検証は個人の責任です。私と対話する相手が生成AIであれ人間であれ、結局その相手の答えは、学習した背景知識や価値観を形作る学習データの影響を受けます。もちろん、このような共通点があるからといってAIが真の知能を持つとは思いませんが、そもそも生成AIが真偽と無関係である理由は、それが学習したデータが真偽と無関係だからであり、これは人間も同じです。そうした事実だけをもって「使うべきではない」と言うのは、納得できません。 3番については、私が軽率に早合点して誤解していた部分がありましたね。2番のソースコードと同じように、サーバーで何が起きているのかを利用者が知るべきだという話であれば、ある知識サービスを提供するサービス提供者としての他者をサーバーにたとえても同じ文脈になり得ると思っていたのですが、単に私が最初から誤解していただけでした。 しかし、おっしゃる通り独善的だという点は、私の誤解ではないようです。 生成AIのソースコードやコピーを得られなければならないという話になれば、知的財産権は崩壊するでしょう。 他人のサーバーにデータが提供されるのが不満なら、提供しなければいいのです。利用しなければいいのです。誰にも秘密を漏らさずに、その秘密について議論する方法はありません。誰かが時間と資源、努力をかけて開発したAIのソースコードやコピーを、誰もが持てるべきだなんて、それが bullshit でないなら何だというのでしょう。私が自分のものを無料で差し出すからといって、他人のものを私が勝手に持てるようになるわけではありません。 最初におっしゃったように、私はストールマンという人物とその主張についてよく知りません。表面的に名前を少し聞いたことがある程度で、自由ソフトウェアに関する対立があることくらいは知っています。しかし、彼の主張と影響力がどこまで及んでいるのか、どれほど真剣に受け止められているのかは分かりません。ですが、少なくとも合理性と現実性を欠いた主張を bullshit だと言う自由くらいは、私にもあるようですね。 コメントをさらに読み込む
とても良い内容です。
???: It's a White.
こうして見ると、どの色もきれいに見えますね
wwwwwwwwww
企業が市場から利益を得た分だけ市場に貢献し、技術の発展が再びそのような発展を可能にした社会に還元することは、私も望ましいことだと考えます。
生成AIについての基礎的な枠組みはすでに公開されており、そのうちOpenAIが公開していない部分は企業の営業秘密に属すると考えます。企業や技術が社会に再び貢献することは、表向きには感謝の表現であり共生のメッセージですが、実質的には企業の持続可能な成長のための市場への再投資だと見ています。そうした観点から見れば、AI企業は稼いだお金で教育や社会インフラに貢献するのが望ましいのであって、企業が持つ資産も同然のAIのコピーをすべて公開せよというのは、金の卵を産むガチョウがもたらす金の卵の恩恵を無視して、まず腹を裂けと求めるようなものではないでしょうか。金の卵はいくらでも出てきます。それを分け合えばよいのであって、どうしてもガチョウそのものを差し出せと言うのなら、いったい誰がガチョウを育てようと思うのか、というだけです。
AIがどのように動作するのかは、すでに電磁気学のように明らかになっています。スマートフォンには電磁気学の基礎知識だけでなく、各企業が明かせない営業秘密としての技術も含まれているはずです。この点を尊重せず、生成AIを魔女狩りのように悪いものとして決めつけるのは、理解できないだけです。
返信をくださった方々のお話のおかげで、いろいろ調べ、多くのことを考えるようになりました。ありがとうございます。
ありがとうございます :)
(少なくともゲーム分野では)Windowsの影から完全に抜け出せるその日を、私も楽しみにしています。
> 本当にプログラミングが上達する瞬間とは、「この機能をぜひ入れたいのに、やり方がわからない」という状況にぶつかったときだ。そのときの学習速度は、授業とは比べものにならない。
個人的なことに取り組むべき重要な理由ですね!
私は、社会に大きな影響を与える技術や知識は社会に還元されるべきだ、という枠組みで見ています。ちょうど医薬品のジェネリックのようにです。ジェネリックが制限されれば、ダラプリムのような事例が増え、一部の利益のために社会全体が損をすることになるでしょう。
そして電磁気学とスマートフォンについておっしゃっていましたが、電磁気学のような基礎学問は、知識が第三者によって検証可能な形で公開され、社会に共有されているのではないでしょうか。だからこそ、電磁気学の知識がない一般の人々でも、このように一歩一歩積み上げられてきた信頼に基づいてスマートフォンのエコシステムに参加できるのであり、その結果としてエコシステムの規模が拡大し、市場が生まれ、人類がその恩恵を受けるのです。
「中国語の部屋」実験の頃からある定番ネタですね(笑)
白にもいろいろあるとはいえ、ちょっとダサいですねwww
ネットでは、薄汚れたマルチーズ色って呼ばれているようですね https://www.instagram.com/p/DSBt6d_j4Di/
エプスタインを擁護して全部やめたのかと思ったら、また出てくるんですね、はは。
よく読みました。
他の人が言ったならたわごとに聞こえるだろうが、ストールマンが言うなら納得できる。
意図を持って判断を行う人間は、主体であると同時に客体として意志を形成します。私は、それが知能というものだと思います。知的活動に有用だからといって、それを知能だとするのは過大解釈でしょう。
ソウルにもあるけど、こいつは人を避けるんじゃなくて、人がこいつを避けなきゃならない感じでちょっと微妙でしたね。
成果や目標を数字で表現する能力が重要だと思っていましたが、この記事ではグラフでまで表現しなければならないと言っていますね。相手にとって理解や信頼の面で納得できる部分だと感じました
その通りですが、そうは言ってもLLMは驚くほど高い確率で正解を出しています。
根本的に、利用者がソフトウェアのソースコードあるいはコピーを持てなければならないと言うことの根本的な根拠は、結局のところストールマン個人の信仰なのではないでしょうか。
まるで、すべてを無料で公平に分け合うことができ、そうあるべきだという、きわめて急進的で理想主義的かつ純粋に理論的な信仰を打ち立て、その砂上の楼閣に少しでも影を落とすものは、それが何であれまるで異端として扱うかのような姿勢には、同意しがたいですね。人類はすでに、経済体制に関してこれとよく似た病を一つ抱えています。
生成AIの結果が確率論的であり、おっしゃる semantic grounding がないという点には同意しますが、結局は程度の差にすぎず、人とコミュニケーションしたり議論したりする場合でも、内容の判断と検証は個人の責任です。私と対話する相手が生成AIであれ人間であれ、結局その相手の答えは、学習した背景知識や価値観を形作る学習データの影響を受けます。もちろん、このような共通点があるからといってAIが真の知能を持つとは思いませんが、そもそも生成AIが真偽と無関係である理由は、それが学習したデータが真偽と無関係だからであり、これは人間も同じです。そうした事実だけをもって「使うべきではない」と言うのは、納得できません。
3番については、私が軽率に早合点して誤解していた部分がありましたね。2番のソースコードと同じように、サーバーで何が起きているのかを利用者が知るべきだという話であれば、ある知識サービスを提供するサービス提供者としての他者をサーバーにたとえても同じ文脈になり得ると思っていたのですが、単に私が最初から誤解していただけでした。
しかし、おっしゃる通り独善的だという点は、私の誤解ではないようです。
生成AIのソースコードやコピーを得られなければならないという話になれば、知的財産権は崩壊するでしょう。
他人のサーバーにデータが提供されるのが不満なら、提供しなければいいのです。利用しなければいいのです。誰にも秘密を漏らさずに、その秘密について議論する方法はありません。誰かが時間と資源、努力をかけて開発したAIのソースコードやコピーを、誰もが持てるべきだなんて、それが bullshit でないなら何だというのでしょう。私が自分のものを無料で差し出すからといって、他人のものを私が勝手に持てるようになるわけではありません。
最初におっしゃったように、私はストールマンという人物とその主張についてよく知りません。表面的に名前を少し聞いたことがある程度で、自由ソフトウェアに関する対立があることくらいは知っています。しかし、彼の主張と影響力がどこまで及んでいるのか、どれほど真剣に受け止められているのかは分かりません。ですが、少なくとも合理性と現実性を欠いた主張を bullshit だと言う自由くらいは、私にもあるようですね。