- オープンソースプロジェクト chardet v7.0.0 がAIツールを使ってコード全体を書き直し、LGPLからMITへライセンスを変更した
- 元の作者は、この過程には GPL違反の可能性 があると主張しており、AIが元コードを学習した状態で生成した成果物は 「クリーンルーム実装」ではない と指摘
- 従来のクリーンルーム方式では2つのチームを分離する必要があるが、AIがこの壁を迂回する ことで、派生著作物に当たるかどうかが争点になっている
- 同時に、米国最高裁がAI生成物の著作権を認めていない ため、新しいコードの 所有権とライセンス効力 が曖昧になっている
- このような事例が認められた場合、Copyleftの仕組みが無力化されるおそれ が提起されている
chardetプロジェクトのAIベースのリライトとライセンス変更
- Pythonの文字エンコーディング検出ライブラリ chardet は、もともとMozillaのC++コードを移植したもので、LGPL に拘束されていた
- このため企業ユーザーは法的な不確実性に直面していた
- メンテナーたちは Claude Code を使ってコード全体を書き直し、v7.0.0 を MITライセンス で配布した
- 元の作者 a2mark は、この措置が LGPL違反 だと主張
- 修正されたコードも依然としてLGPLに従うべきであり、「完全なリライト」という主張は 元コードに触れた状態で生成された成果物 であるため無効だと指摘
- AIによるコード生成は追加の権利を与えるものではないと明言
クリーンルーム実装とAIによる迂回
- 従来の クリーンルームリライト(clean room rewrite) は2つのチームで構成される
- チームA は元コードを分析して機能仕様書を作成
- チームB は元コードを見ず、仕様書だけで新しいコードを作成
- しかしAIに元のLGPLコードを入力して生成させた場合、この手続き上の分離は失われる
- AIが元コードから学習して結果を生成したなら、その成果物は LGPLの派生著作物 と見なされる可能性がある
米国最高裁の判断と法的パラドックス
- 2026年3月2日、米国最高裁はAI生成物の著作権認定の可否に関する上訴を退けた
- 下級審の 「人間の著作者要件(Human Authorship)」 判断が維持された
- これにより、chardetのメンテナーたちは3つの法的矛盾に直面する
- 著作権の空白: AI生成物が著作権保護を受けられないなら、MITへ再ライセンスする法的根拠がない
- 派生物の罠: AI出力が元のLGPLコードの派生物なら、これはライセンス違反となる
- 所有権の空白: AIが完全に新しいコードを生成したなら、生成と同時に パブリックドメイン となり、MITライセンス自体が無意味になる
Copyleftの仕組みへの潜在的影響
- AIリライトによってライセンスを変更する方法が許容されるなら、Copyleftの土台が崩れる可能性 がある
- 誰でもGPLプロジェクトをLLMに入力して「別のスタイルで書き直せ」と指示したうえで、MITライセンスで配布 できるようになる
- chardet v7.0.0の事例 は、こうした法的・倫理的境界が初めて試される実例として評価されている
1件のコメント
Hacker Newsのコメント
メンテナの返答を見ると、Claude に LGPL/GPL コードを参照しないよう明示していたが、モデルはすでにそのコードで学習済みである可能性が高い
LLM が学習データの影響を完全に 「忘れる」 ことは、現時点では不可能だとされている
関連研究として このプロジェクト がある
私は開発者であり 知的財産権弁護士 でもあるが、この種の問題は米国の裁判所でもなお発展途上にある
参考までに、Anthropic の有料エンタープライズプランは著作権侵害時にユーザーを 免責 するが、無料/Pro/Max プランでは逆にユーザーが Anthropic を免責しなければならない(利用規約 11条)
完全な クリーンルーム実装(clean-room implementation) とするには、原作を知る人物と新たに書く人物を分離しなければならないが、このケースはそうなっていない
意味は保ちながら単語の一部を削って 直接引用を防ぐ アイデアだった
この記事は「クリーンルーム実装」の意味を誤解している
単に「原コードを見なければよい」という話ではなく、API 仕様から独立して実装 しなければならない
LLM が生成したコードは原作と似る確率が高く、法的には 複製物 と見なされるリスクが大きい
chardet メンテナの行為は法的に 無責任な再ライセンス のように見え、今後 サプライチェーン問題 を引き起こす可能性がある
単に同じ結果になっただけなら、それは機能的結果にすぎず著作権侵害ではない
Wikipedia 記事 参照
ただし実際の裁判では類似性が高いと防御は難しい
chardet の件は、日本のフォント著作権論争のように、実質的侵害でなくても配布停止につながる可能性がある
「LGPL コードは依然として LGPL のまま」だ
すべての原著作者が明示的に同意しない限り、ライセンス変更は不可能 だ
AI がコードを変換したからといって著作権が消えるわけではない
そうだとすれば、米国の著作権産業全体が崩壊してしまう
許可なく派生著作物を作った者が、さらに再許諾を与えることは複雑な問題だ
生成 AI によって 著作権制度が時代遅れになっている
過去の法律は単一目的モデルを前提としていたが、今では あらゆるソースと競合しうるモデル が登場している
GNU の ライセンス戦略 もコードの希少性を前提としていたが、今やコード生成はあまりに容易になり、その意味が弱まっている
訴訟では Claude のログ が証拠として使われうる
いまはアイデアよりも 表現の生成が容易な時代 だ
AI によって誰もがコードを書ける世界は、むしろ GNU が夢見た理想郷に近い
AI が作ったコードが真に 新しい創作物 なら、生成と同時に パブリックドメイン になる可能性があるという主張に疑問を呈している
モデルがどのデータを学習したか分からない以上、これは リバースエンジニアリング に当たりうる
したがって最も 制限的なライセンス を適用すべきであり、AI 企業は原著作者に 収益を還元 すべきだと主張している
実際、許可されたデータだけで学習したモデルは性能が非常に低い
もし AI 生成物がすべて派生著作物と見なされるなら、すべてのオープンソースプロジェクトが汚染 されてしまう
結局 人間以外の誰も所有権を主張できない状態 になれば、事実上パブリックドメインとして扱われる
関連議論として「No right to relicense this project」という 別スレッド がある
AI が作ったコードがパブリックドメインなら、MIT ライセンス自体が無意味 だという主張に反論している
AI 生成物は単なるコピーとは異なり、それでも原作の ライセンス制約 を受ける
たとえば Project Gutenberg で学習した詩生成器も著作権を主張できない
マクロやコード生成ツール、Intellisense のような自動化機能は、どこまでが「AI 生成」なのか境界が曖昧だ
過去には chardet を Python 標準ライブラリに含める 議論があったが、
今回の ライセンス変更論争 によってその可能性は消えたと見ている
関連議論は この issue と、
メンテナの発言1、発言2 を参照
このような AI 再ライセンス は、オープンソース、とりわけ Copyleft の終わりを意味するかもしれない
ライセンスがもはや保護機能を果たせないなら、開発者は クローズド開発 に戻るだろう
最新モデルは WebAssembly のリバースエンジニアリング まで可能になっており、まるで ダークフォレスト理論 のように感じる
AI 再書き直し物が GPL なら、それもまた公開されるべきだ
「AI の再書き直しでライセンスを変えられるなら、著作権全体が崩壊する」という結論に同意する
映画、音楽、小説などあらゆる創作物に適用できてしまうからだ
結局、裁判所はこのような試みを 著作権回避とは認めない だろうし、
chardet プロジェクトが巨大な法的な波の前で 実験台にならないことを願う