- Pythonの文字エンコーディング検出ライブラリ chardet がAIを用いて再実装され、LGPLからMITへ変更された事例がオープンソース倫理をめぐる論争を引き起こした
- AI再実装の合法性を認める意見が出た一方で、この記事は 法的に許容されることと社会的な正当性は別物だ と強調する
- GNUやLinuxの歴史的な再実装は 私有から自由への拡張 だったが、今回の事例は コモンズの保護を弱める方向 に作用する
- GPLの共有条件 は制限ではなく相互的な共有を保証する仕組みであり、MIT的な自由 は資本の多い側にだけ利益が流れる非対称な構造を招く
- AIがコピーレフトを迂回しやすくなった時代であるほど、コモンズから得た者は再びコモンズに返すべきだという原則 がいっそう重要になる
chardet 7.0のAI再実装とライセンス変更
- Pythonの chardetライブラリ がAnthropicの Claude を用いて完全に新しく書き直された
- 新バージョンは従来より 48倍高速 で、マルチコア対応 も追加
- コード類似度は 1.3%未満 と測定され、独立した著作物と見なされている
- 従来の LGPLライセンス から MITライセンス に変更され、ソース公開義務がなくなった
- 元の作者 Mark Pilgrim はGitHub Issueを通じて LGPL違反の可能性 を提起
- AIが既存コードベースに触れた状態での再実装は 「クリーンルーム」方式とは言い難い という主張
オープンソース関係者の相反する反応
- Armin Ronacher(Flaskの作者) は再ライセンス化を歓迎し、GPLは共有の精神に反する と主張
- Salvatore Sanfilippo(antirez、Redisの作者) は AI再実装の合法性 を擁護し、GNUの歴史と著作権法を根拠として提示
- 2人はいずれも 法的許容を正当性と同一視 しているが、この記事は 法と倫理の隔たり を問題として提示する
GNUの歴史と方向性の違い
- GNUの再実装は プロプライエタリソフトウェアを自由ソフトウェアへ転換 する過程だった
- 核心は法的許容ではなく、コモンズ拡張という倫理的方向性 にあった
- 一方でchardetの事例は コピーレフトの保護を取り除き、コモンズの囲いを解体する 方向に作用する
- chardet 7.0を基にした派生物は、もはや ソース公開義務 を負わない
- antirezはこの 方向性の逆転 を見落とし、GNUの先例を不適切な根拠として用いている
GPLと共有の意味
- RonacherはGPLが共有を制限すると主張するが、この記事はそれを 根本的な誤解 だと指摘する
- GPLは 配布時にのみ ソース公開を求め、私的利用には制約がない
- これは 共有の相互性 を保証する仕組みであり、共有を抑圧するものではない
- MITライセンス ではコードの受領者は自由だが、貢献を返す義務はない
- 結果として 資本と人員の多い側にだけ恩恵が集中 する構造になる
- 1990年代にGPLコードが企業へ取り込まれていた事例は、コピーレフト強化の必要性 を示している
自己矛盾的な事例:VercelとCloudflare
- Vercel がAIで GNU Bashを再実装 した後、CloudflareがNext.jsを再実装 すると不快感を示した
- Next.jsはMITライセンスであるため、法的問題はなかった
- これは「GPLをMITに変えるのは共有の勝利」だと言いながら、自分たちのコードが再実装されると反発するという矛盾 を露呈している
- Ronacherはこれを認めつつも結論を変えず、論理より立場に合わせた結論 だと評価されている
合法性と正当性の区別
- 法は 禁止していない行為 を規定するだけで、正しさを保証するものではない
- 節税や薬価引き上げのように、合法でも 反社会的な行為 は存在する
- chardetのLGPLは単なる法的装置ではなく、12年間の社会的な約束 だった
- 「このコードを使うなら同じ条件で共有する」という信頼に基づく契約
- AI再実装が法的に新しい作品だとしても、コントリビューターとの信頼を壊す行為 である
- FSFのZoë Kooyman は「自分が受け取った権利を他者に与えないのは反社会的行為だ」と明言している
視点の非対称性
- antirezとRonacherは 中心的なオープンソース人物 であり、AI再実装は 自分たちに有利な環境 を意味する
- 一方でchardetのコントリビューターにとっては、貢献保護の喪失 として作用する
- この非対称性を無視したまま「法的に問題ない」と語るのは、分析ではなく正当化 だと評価されている
コピーレフトの未来と社会的判断
- Bruce Perens は「ソフトウェア開発の経済学は終わった」と警告した
- antirezは「適応すべきだ」、Ronacherは「興味深い」と反応
- しかし核心は「コピーレフトは迂回しやすくなるほど、むしろ必要性が高まるのか」という問いにある
- GPLはコードの希少性ではなく、ユーザーの自由 を守る
- AIで再実装しやすくなるほど、コピーレフト除去の摩擦も小さくなる
- 「コモンズから得た者はコモンズに返すべきだ」という原則は、時間や技術の変化に左右されない社会規範 である
- 法はゆっくり変わるが、コミュニティの価値判断の方が先に動いてきた
- GPLv2→v3→AGPLへの進化も、法よりコミュニティの判断が先行 していた
- AI時代には、テストスイートやAPI仕様までコピーレフト保護の対象 に拡張すべきだ
- 結論として、法的判決ではなく社会的判断 が先に下されるべきであり、
合法性は正当性の代わりにはならない と強調している
1件のコメント
Hacker Newsの意見
もし今や**仕様書(specification)**だけでソースコードを生成できるのなら、GPLプロジェクトの中核となる知的資産は仕様にあることになる
以前は企業向けソフトウェアを模倣しても法的に許されるように闘ってきたのに、今はその権利を自ら放棄し、知的財産権者により多くの支配権を与えようとしている状況だ
この流れは、反大企業的だったり共有に優しい結果にはつながらないだろう。結局この権力を行使するのは大企業だ
今は時代がまったく違う。引用されている主張は、すでに批判された論点を繰り返しているだけだ。
この議論に同意するなら、ぜひ元の記事そのものを読んでほしい
私が興味深いと思うのは、この現象が単に著作権を超えて、知的財産(IP)という概念そのものを崩しうるかどうかだ
IPは「創造性は難しい」という前提の上に成り立っていたが、LLMは今や数学の証明や新薬設計など、ほぼあらゆる知識創出を自動化しつつある
だとすれば、もはや「難しくない」創作物に独占権を与える理由はあるのだろうか。結局AIは特許ですら単なる制約条件として扱い、回避していくだろう
現在の法制度ではAI生成物は著作権保護の対象ではなく、人間の実質的な関与があって初めて保護される
人間が努力して生み出した成果物は、大企業がただで持っていけないように守るべきだ
ただし、その問題を解く主体が人間とは限らない
コンピュータが登場した時点ですでに無意味になっていたが、ロビー活動で延命してきた。
今やAIがその棺に最後の釘を打つのかもしれない。
結局重要なのはモデルの**重み(weights)**であり、誰もがアクセスできるよう公開されるか、強制的にでも開放されるべきだ
誰かがこれを実際に試してみるべきだ
流出したMinecraftのソースコードをCopilotに入力して、別の言語で完全に同一の複製を作り、オープンソースとして公開するということだ
Microsoftがそれを著作権侵害だと主張するのか気になる
むしろ「最初からMinecraftを実装しろ」と指示すべきだ。
ただしテクスチャやモデルは再利用できないので、AIが新しく生成する必要がある
君の例は、それよりもはるかに明確な侵害の可能性を持つケースだ
もしLLMを使って流出したWindowsソースコードのライセンスを取り除き、WINE向けのコードを作ったらどうなるのか。
最近ではLLMを使ったバイナリ逆コンパイルの試みも盛んに議論されている
オープンソース陣営の二人がこの議論に参加したが、どちらもIP弁護士ではない
実際の弁護士であるRichard Fontanaも参加していたが、彼のイシューは閉じられた
彼はGitHub issueで「AI生成物は一般に著作権保護の対象ではない」と指摘していた
つまり、人が直接コードを修正せず、プロンプトだけを書いたのであれば、そのコードにMITライセンスを付ける行為自体が大きな法的含意を持つ
むしろ写真撮影に近い。カメラが著作権を持つわけではないが、人間は持てる
ピクセル単位で介入しなくても人間の創作として認められるのと同じだ
GPLの歴史を見れば、これは著作権で著作権に対抗する試みだった
「Copyleft」という名前自体がそれを表している
ところがAIは著作権そのものを侵食している。
今やGPLプログラムだけでなく、クローズドソースのソフトウェアですらAIで再実装できる
だとすればGNUはGPLを捨て、LLMを新たな武器にすべきだ
これはむしろオープンソースの自由を弱め、権力を大企業中心へと移す
さらにLLMは膨大なボランティアのコードで学習しているのに、その利益は大企業が得ている
結局オープンソースの魅力が薄れ、ライセンス尊重も失われる危険がある
特に、利用者が自分の機器で動くソフトウェアを修正する権利を保障する
しかし特定のツールや鍵、仕様が制限されている場合、再実装は不可能になる
結局**「悪い企業」の武器**を借りて戦っているだけになるかもしれない
すでにライセンス違反は起きていると思う
ほとんどの大規模モデルはデータ収集の過程で利用規約に違反している
したがってGPLコードで学習したモデルは、オープンライセンス義務に**感染(infect)**したと見なせる
法的に重要なのは、①データを合法的に取得したか、②出力物が独創的表現に当たるか、という点だ
今回のケースでは98.7%が新しいコードだと確認されている
本当の論点は出力物がどれほど変形的かだ。
これはNYT vs OpenAI訴訟の核心的争点でもある
Blanchardは「APIとテストだけをClaudeに入力して新しく実装した」と言っているが、
これは「目隠しをしてキャンバスに絵の具を投げたらMickey Mouseの形になった」と言うようなものだ
彼はもともと当該コードのメンテナだったので、完全に独立しているとは言いがたい
元のコードを入力して複製するよう設定したなら、それは依然として著作権侵害だ
AIが単なる道具なら利用者の責任だし、独立した行為者ならそれ自体が侵害主体になる
ただし、表現要素をそのままコピーしない限りにおいてだ
Blanchardがすべてのプロンプトを公開すれば、誰でも同じ結果を再現できるはずだ
私の理解では、Claudeがコードを見ていないという主張だけだった
記事によれば、ClaudeはAPIとテストだけを入力としてライブラリを再実装した
ところがGPL2では、テストスイートもソースコードの一部と見なされる
だとすればClaudeがテストを使った場合、結果物はLGPL 2.1の基準で原作に基づく二次的著作物になりうる
ただしテストをMITライセンスで再配布することはできないかもしれない
したがって、コードだけをMITで配布し、テストはLGPLで並行配布する形が現実的だ
テストケースもAPI利用の一部と見なせるかもしれない
私たちの会社では、セキュリティチームが承認しないツールを使うためにAI再実装が使われ始めている
セキュリティチームは「デフォルト拒否」方針で、エンジニアリングチームは「AI積極活用」方針を持っている
その結果、AIで社内向けツールを新たに作るという奇妙なインセンティブ構造が生まれている
別の結果を望むなら、まずインセンティブ設計から変えるべきだ
もしAIがセキュリティ関連コードを繰り返しうまく書けるなら、
なぜ同じAIがサードパーティ製ソフトウェアのセキュリティ検証はできないと信じるのか。
生産と分析の非対称性が存在する理由を問いただしたい
GPLの条件は配布(distribution)の時点でのみ発動する
修正したコードを配布したり、ネットワークサービスとして提供したりする際にソース公開義務が生じる
ただし、ネットワークサービスの提供は配布ではないため、それを補う目的でAGPLが作られた