3 ポイント 投稿者 GN⁺ 2026-03-07 | 1件のコメント | WhatsAppで共有
  • オープンソースプロジェクト chardet v7.0.0 がAIツールを使ってコード全体を書き直し、LGPLからMITへライセンスを変更した
  • 元の作者は、この過程には GPL違反の可能性 があると主張しており、AIが元コードを学習した状態で生成した成果物は 「クリーンルーム実装」ではない と指摘
  • 従来のクリーンルーム方式では2つのチームを分離する必要があるが、AIがこの壁を迂回する ことで、派生著作物に当たるかどうかが争点になっている
  • 同時に、米国最高裁がAI生成物の著作権を認めていない ため、新しいコードの 所有権とライセンス効力 が曖昧になっている
  • このような事例が認められた場合、Copyleftの仕組みが無力化されるおそれ が提起されている

chardetプロジェクトのAIベースのリライトとライセンス変更

  • Pythonの文字エンコーディング検出ライブラリ chardet は、もともとMozillaのC++コードを移植したもので、LGPL に拘束されていた
    • このため企業ユーザーは法的な不確実性に直面していた
  • メンテナーたちは Claude Code を使ってコード全体を書き直し、v7.0.0MITライセンス で配布した
  • 元の作者 a2mark は、この措置が LGPL違反 だと主張
    • 修正されたコードも依然としてLGPLに従うべきであり、「完全なリライト」という主張は 元コードに触れた状態で生成された成果物 であるため無効だと指摘
    • AIによるコード生成は追加の権利を与えるものではないと明言

クリーンルーム実装とAIによる迂回

  • 従来の クリーンルームリライト(clean room rewrite) は2つのチームで構成される
    • チームA は元コードを分析して機能仕様書を作成
    • チームB は元コードを見ず、仕様書だけで新しいコードを作成
  • しかしAIに元のLGPLコードを入力して生成させた場合、この手続き上の分離は失われる
  • AIが元コードから学習して結果を生成したなら、その成果物は LGPLの派生著作物 と見なされる可能性がある

米国最高裁の判断と法的パラドックス

  • 2026年3月2日、米国最高裁はAI生成物の著作権認定の可否に関する上訴を退けた
    • 下級審の 「人間の著作者要件(Human Authorship)」 判断が維持された
  • これにより、chardetのメンテナーたちは3つの法的矛盾に直面する
    • 著作権の空白: AI生成物が著作権保護を受けられないなら、MITへ再ライセンスする法的根拠がない
    • 派生物の罠: AI出力が元のLGPLコードの派生物なら、これはライセンス違反となる
    • 所有権の空白: AIが完全に新しいコードを生成したなら、生成と同時に パブリックドメイン となり、MITライセンス自体が無意味になる

Copyleftの仕組みへの潜在的影響

  • AIリライトによってライセンスを変更する方法が許容されるなら、Copyleftの土台が崩れる可能性 がある
  • 誰でもGPLプロジェクトをLLMに入力して「別のスタイルで書き直せ」と指示したうえで、MITライセンスで配布 できるようになる
  • chardet v7.0.0の事例 は、こうした法的・倫理的境界が初めて試される実例として評価されている

1件のコメント

 
GN⁺ 2026-03-07
Hacker Newsのコメント
  • メンテナの返答を見ると、Claude に LGPL/GPL コードを参照しないよう明示していたが、モデルはすでにそのコードで学習済みである可能性が高い
    LLM が学習データの影響を完全に 「忘れる」 ことは、現時点では不可能だとされている
    関連研究として このプロジェクト がある
    私は開発者であり 知的財産権弁護士 でもあるが、この種の問題は米国の裁判所でもなお発展途上にある
    参考までに、Anthropic の有料エンタープライズプランは著作権侵害時にユーザーを 免責 するが、無料/Pro/Max プランでは逆にユーザーが Anthropic を免責しなければならない(利用規約 11条

    • メンテナは「最初から書き直した」と主張しているが、実際には chardet のテストデータ をそのまま使っており、10年以上にわたって原コードを保守してきた人物でもある
      完全な クリーンルーム実装(clean-room implementation) とするには、原作を知る人物と新たに書く人物を分離しなければならないが、このケースはそうなっていない
    • 類似の話題として このスレッド でも議論されていた
    • 学習中に特定トークンをランダムに マスキング して原文をそのまま記憶しないようにする研究があった
      意味は保ちながら単語の一部を削って 直接引用を防ぐ アイデアだった
    • 有料プランごとの 免責条項の違い が重要だと初めて知り、有益だった
  • この記事は「クリーンルーム実装」の意味を誤解している
    単に「原コードを見なければよい」という話ではなく、API 仕様から独立して実装 しなければならない
    LLM が生成したコードは原作と似る確率が高く、法的には 複製物 と見なされるリスクが大きい
    chardet メンテナの行為は法的に 無責任な再ライセンス のように見え、今後 サプライチェーン問題 を引き起こす可能性がある

    • 2人が独立して同じコードを書いたなら各自が著作権を持ちうるという 法律解説 を引用して反論している
    • 著作権上の複製が成立するのは 情報の流れ があった場合だけだ
      単に同じ結果になっただけなら、それは機能的結果にすぎず著作権侵害ではない
    • Google vs Oracle の事例のように、API ベースの実装にも法的リスクはある
      Wikipedia 記事 参照
    • IBM PC BIOS の Phoenix のクリーンルーム事例 のように、原作を見ずに新たに書けば合法だという先例もある
    • 完全な CRRE(clean-room reverse engineering) 手順に従えば、コードが 1:1 で同じでも法的には複製ではない
      ただし実際の裁判では類似性が高いと防御は難しい
      chardet の件は、日本のフォント著作権論争のように、実質的侵害でなくても配布停止につながる可能性がある
  • 「LGPL コードは依然として LGPL のまま」だ
    すべての原著作者が明示的に同意しない限り、ライセンス変更は不可能
    AI がコードを変換したからといって著作権が消えるわけではない
    そうだとすれば、米国の著作権産業全体が崩壊してしまう

    • 法的に「LGPL コード」という独立した属性があるわけではなく、核心は 複製行為が許されるかどうか にある
      許可なく派生著作物を作った者が、さらに再許諾を与えることは複雑な問題だ
    • SCOTUS の判決はむしろ、AI が作った成果物には 創作性がないと見る 点で、原著作者の権利を強める方向にある
    • 完全な AI ベースのクリーンルーム書き直し であれば、事実上 パブリックドメイン と見なせるかもしれないが、実際にそうなっている事例はまれだ
  • 生成 AI によって 著作権制度が時代遅れになっている
    過去の法律は単一目的モデルを前提としていたが、今では あらゆるソースと競合しうるモデル が登場している
    GNU の ライセンス戦略 もコードの希少性を前提としていたが、今やコード生成はあまりに容易になり、その意味が弱まっている

    • AI に原コードを入力して「書き直してくれ」と頼めば 派生著作物 だが、単に機能説明だけを与えれば新たな創作物になる
      訴訟では Claude のログ が証拠として使われうる
    • 「法律を破りながら方程式を変えたのだ」という批判もある
    • アイデアは保護されず、表現は保護されるという従来の前提が、AI 時代には揺らいでいる
      いまはアイデアよりも 表現の生成が容易な時代
    • むしろこうした変化は 著作権独占構造を壊す前向きな兆候 だという意見もある
    • GNU の目標はライセンスではなく ユーザーの自由 だった
      AI によって誰もがコードを書ける世界は、むしろ GNU が夢見た理想郷に近い
  • AI が作ったコードが真に 新しい創作物 なら、生成と同時に パブリックドメイン になる可能性があるという主張に疑問を呈している
    モデルがどのデータを学習したか分からない以上、これは リバースエンジニアリング に当たりうる
    したがって最も 制限的なライセンス を適用すべきであり、AI 企業は原著作者に 収益を還元 すべきだと主張している

    • そうなると「All Rights Reserved」が適用され、AI 出力を使えなくなる
      実際、許可されたデータだけで学習したモデルは性能が非常に低い
      もし AI 生成物がすべて派生著作物と見なされるなら、すべてのオープンソースプロジェクトが汚染 されてしまう
    • AI が原コードをほぼそのまま複製していない限り、米国の裁判所は学習データの著作権を問題にしない
      結局 人間以外の誰も所有権を主張できない状態 になれば、事実上パブリックドメインとして扱われる
    • いっそすべての LLM 生成コードを GPL v3 と見なしてしまおう、という冗談交じりの提案もあった
    • Disney の利益が侵害される頃になって初めて法律が変わるだろう、という皮肉な意見もあった
    • AI が原コードを直接使ったのか、中間表現を介して書き直したのかによって、法的責任 は変わってくるだろう
  • 関連議論として「No right to relicense this project」という 別スレッド がある

    • そちらは単なる 盗用されたプロジェクト に見え、今回の chardet の件では AI 再書き直しの正当性 が核心だ
  • AI が作ったコードがパブリックドメインなら、MIT ライセンス自体が無意味 だという主張に反論している
    AI 生成物は単なるコピーとは異なり、それでも原作の ライセンス制約 を受ける

    • AI が作った成果物は法的に 著作物として認められないため、誰もライセンスを付与できない
      たとえば Project Gutenberg で学習した詩生成器も著作権を主張できない
    • しかしコードの場合はまだ 法的基準が不明確
      マクロやコード生成ツール、Intellisense のような自動化機能は、どこまでが「AI 生成」なのか境界が曖昧だ
    • 「copywrite」ではなく 「copyright」 が正しい用語だという訂正もあった
    • AI 生成物でも、人間が 創造的に関与 していれば著作権が認められる可能性があるという意見もあった
  • 過去には chardet を Python 標準ライブラリに含める 議論があったが、
    今回の ライセンス変更論争 によってその可能性は消えたと見ている
    関連議論は この issue と、
    メンテナの発言1発言2 を参照

  • このような AI 再ライセンス は、オープンソース、とりわけ Copyleft の終わりを意味するかもしれない
    ライセンスがもはや保護機能を果たせないなら、開発者は クローズド開発 に戻るだろう

    • 私もそのため、オープンソース公開を完全にやめた
      最新モデルは WebAssembly のリバースエンジニアリング まで可能になっており、まるで ダークフォレスト理論 のように感じる
    • これはオープンソースだけでなく、すべてのソース公開プロジェクト に当てはまる
    • GPL の目的は「望まない利用を防ぐこと」ではなく、改変時にソース公開を求めること
      AI 再書き直し物が GPL なら、それもまた公開されるべきだ
    • 「フリーソフトウェア」を閉じると言うのは、そもそも 自由の哲学 と矛盾するという反論もあった
  • 「AI の再書き直しでライセンスを変えられるなら、著作権全体が崩壊する」という結論に同意する
    映画、音楽、小説などあらゆる創作物に適用できてしまうからだ
    結局、裁判所はこのような試みを 著作権回避とは認めない だろうし、
    chardet プロジェクトが巨大な法的な波の前で 実験台にならないことを願う