8 ポイント 投稿者 GN⁺ 2026-03-10 | 1件のコメント | WhatsAppで共有
  • Pythonの文字エンコーディング検出ライブラリ chardet がAIを用いて再実装され、LGPLからMITへ変更された事例がオープンソース倫理をめぐる論争を引き起こした
  • AI再実装の合法性を認める意見が出た一方で、この記事は 法的に許容されることと社会的な正当性は別物だ と強調する
  • GNUやLinuxの歴史的な再実装は 私有から自由への拡張 だったが、今回の事例は コモンズの保護を弱める方向 に作用する
  • GPLの共有条件 は制限ではなく相互的な共有を保証する仕組みであり、MIT的な自由 は資本の多い側にだけ利益が流れる非対称な構造を招く
  • AIがコピーレフトを迂回しやすくなった時代であるほど、コモンズから得た者は再びコモンズに返すべきだという原則 がいっそう重要になる

chardet 7.0のAI再実装とライセンス変更

  • Pythonの chardetライブラリ がAnthropicの Claude を用いて完全に新しく書き直された
    • 新バージョンは従来より 48倍高速 で、マルチコア対応 も追加
    • コード類似度は 1.3%未満 と測定され、独立した著作物と見なされている
  • 従来の LGPLライセンス から MITライセンス に変更され、ソース公開義務がなくなった
  • 元の作者 Mark Pilgrim はGitHub Issueを通じて LGPL違反の可能性 を提起
    • AIが既存コードベースに触れた状態での再実装は 「クリーンルーム」方式とは言い難い という主張

オープンソース関係者の相反する反応

  • Armin Ronacher(Flaskの作者) は再ライセンス化を歓迎し、GPLは共有の精神に反する と主張
  • Salvatore Sanfilippo(antirez、Redisの作者)AI再実装の合法性 を擁護し、GNUの歴史と著作権法を根拠として提示
  • 2人はいずれも 法的許容を正当性と同一視 しているが、この記事は 法と倫理の隔たり を問題として提示する

GNUの歴史と方向性の違い

  • GNUの再実装は プロプライエタリソフトウェアを自由ソフトウェアへ転換 する過程だった
    • 核心は法的許容ではなく、コモンズ拡張という倫理的方向性 にあった
  • 一方でchardetの事例は コピーレフトの保護を取り除きコモンズの囲いを解体する 方向に作用する
    • chardet 7.0を基にした派生物は、もはや ソース公開義務 を負わない
  • antirezはこの 方向性の逆転 を見落とし、GNUの先例を不適切な根拠として用いている

GPLと共有の意味

  • RonacherはGPLが共有を制限すると主張するが、この記事はそれを 根本的な誤解 だと指摘する
    • GPLは 配布時にのみ ソース公開を求め、私的利用には制約がない
    • これは 共有の相互性 を保証する仕組みであり、共有を抑圧するものではない
  • MITライセンス ではコードの受領者は自由だが、貢献を返す義務はない
    • 結果として 資本と人員の多い側にだけ恩恵が集中 する構造になる
  • 1990年代にGPLコードが企業へ取り込まれていた事例は、コピーレフト強化の必要性 を示している

自己矛盾的な事例:VercelとCloudflare

  • Vercel がAIで GNU Bashを再実装 した後、CloudflareがNext.jsを再実装 すると不快感を示した
  • Next.jsはMITライセンスであるため、法的問題はなかった
  • これは「GPLをMITに変えるのは共有の勝利」だと言いながら、自分たちのコードが再実装されると反発するという矛盾 を露呈している
  • Ronacherはこれを認めつつも結論を変えず、論理より立場に合わせた結論 だと評価されている

合法性と正当性の区別

  • 法は 禁止していない行為 を規定するだけで、正しさを保証するものではない
    • 節税や薬価引き上げのように、合法でも 反社会的な行為 は存在する
  • chardetのLGPLは単なる法的装置ではなく、12年間の社会的な約束 だった
    • 「このコードを使うなら同じ条件で共有する」という信頼に基づく契約
  • AI再実装が法的に新しい作品だとしても、コントリビューターとの信頼を壊す行為 である
  • FSFのZoë Kooyman は「自分が受け取った権利を他者に与えないのは反社会的行為だ」と明言している

視点の非対称性

  • antirezとRonacherは 中心的なオープンソース人物 であり、AI再実装は 自分たちに有利な環境 を意味する
  • 一方でchardetのコントリビューターにとっては、貢献保護の喪失 として作用する
  • この非対称性を無視したまま「法的に問題ない」と語るのは、分析ではなく正当化 だと評価されている

コピーレフトの未来と社会的判断

  • Bruce Perens は「ソフトウェア開発の経済学は終わった」と警告した
    • antirezは「適応すべきだ」、Ronacherは「興味深い」と反応
  • しかし核心は「コピーレフトは迂回しやすくなるほど、むしろ必要性が高まるのか」という問いにある
    • 記事は「そうだ」と断言する
  • GPLはコードの希少性ではなく、ユーザーの自由 を守る
    • AIで再実装しやすくなるほど、コピーレフト除去の摩擦も小さくなる
  • 「コモンズから得た者はコモンズに返すべきだ」という原則は、時間や技術の変化に左右されない社会規範 である
  • 法はゆっくり変わるが、コミュニティの価値判断の方が先に動いてきた
    • GPLv2→v3→AGPLへの進化も、法よりコミュニティの判断が先行 していた
  • AI時代には、テストスイートやAPI仕様までコピーレフト保護の対象 に拡張すべきだ
  • 結論として、法的判決ではなく社会的判断 が先に下されるべきであり、
    合法性は正当性の代わりにはならない と強調している

1件のコメント

 
GN⁺ 2026-03-10
Hacker Newsの意見
  • もし今や**仕様書(specification)**だけでソースコードを生成できるのなら、GPLプロジェクトの中核となる知的資産は仕様にあることになる
    以前は企業向けソフトウェアを模倣しても法的に許されるように闘ってきたのに、今はその権利を自ら放棄し、知的財産権者により多くの支配権を与えようとしている状況だ
    この流れは、反大企業的だったり共有に優しい結果にはつながらないだろう。結局この権力を行使するのは大企業だ

    • これは以前のOracle vs Google API訴訟によく似ているように聞こえる
    • しかし昔の開発者たちは、自分たちの成果物で学習した生成AIと競争していたわけではない
      今は時代がまったく違う。引用されている主張は、すでに批判された論点を繰り返しているだけだ。
      この議論に同意するなら、ぜひ元の記事そのものを読んでほしい
  • 私が興味深いと思うのは、この現象が単に著作権を超えて、知的財産(IP)という概念そのものを崩しうるかどうかだ
    IPは「創造性は難しい」という前提の上に成り立っていたが、LLMは今や数学の証明や新薬設計など、ほぼあらゆる
    知識創出
    を自動化しつつある
    だとすれば、もはや「難しくない」創作物に独占権を与える理由はあるのだろうか。結局AIは特許ですら単なる制約条件として扱い、回避していくだろう

    • それでも人間が作った成果物には依然として保護が必要だと思う
      現在の法制度ではAI生成物は著作権保護の対象ではなく、人間の実質的な関与があって初めて保護される
      人間が努力して生み出した成果物は、大企業がただで持っていけないように守るべきだ
    • 著作権は努力の量ではなく、独創性と表現に関するものだ。米国法は「額に汗した努力(Sweat of the Brow)」の原則を認めていない
    • 今やIPはエリートに独占された歪んだ概念になってしまった。DisneyのMickey Mouse以降、すべてが下り坂だった
    • おそらく今は過渡期にすぎない。以前は難しかった問題が簡単になり、私たちはより難しい問題へ目を向けることになるだろう
      ただし、その問題を解く主体が人間とは限らない
    • 実際、IPは最初から数字の所有権という矛盾した概念だった
      コンピュータが登場した時点ですでに無意味になっていたが、ロビー活動で延命してきた。
      今やAIがその棺に最後の釘を打つのかもしれない。
      結局重要なのはモデルの**重み(weights)**であり、誰もがアクセスできるよう公開されるか、強制的にでも開放されるべきだ
  • 誰かがこれを実際に試してみるべきだ
    流出したMinecraftのソースコードをCopilotに入力して、別の言語で完全に同一の複製を作り、オープンソースとして公開するということだ
    Microsoftがそれを著作権侵害だと主張するのか気になる

    • しかしそれは単なる**移植(porting)**なので、侵害と見なされる可能性が高い。
      むしろ「最初からMinecraftを実装しろ」と指示すべきだ。
      ただしテクスチャやモデルは再利用できないので、AIが新しく生成する必要がある
    • 本当に面白くなるのは、AIがバイナリ逆コンパイルまでできるようになったときだ
    • こういうやり方こそ、彼らの武器を彼ら自身に向ける方法だと思う
    • 要点は、学習データに著作権のある資料が含まれていた場合、その出力物が侵害に当たるのかということだ
      君の例は、それよりもはるかに明確な侵害の可能性を持つケースだ
    • 今もっとも重要な問いだ。
      もしLLMを使って流出したWindowsソースコードのライセンスを取り除き、WINE向けのコードを作ったらどうなるのか。
      最近ではLLMを使ったバイナリ逆コンパイルの試みも盛んに議論されている
  • オープンソース陣営の二人がこの議論に参加したが、どちらもIP弁護士ではない
    実際の弁護士であるRichard Fontanaも参加していたが、彼のイシューは閉じられた
    彼はGitHub issueで「AI生成物は一般に著作権保護の対象ではない」と指摘していた
    つまり、人が直接コードを修正せず、プロンプトだけを書いたのであれば、そのコードにMITライセンスを付ける行為自体が大きな法的含意を持つ

    • だが私はFontanaの論理は弱いと思う
      むしろ写真撮影に近い。カメラが著作権を持つわけではないが、人間は持てる
      ピクセル単位で介入しなくても人間の創作として認められるのと同じだ
  • GPLの歴史を見れば、これは著作権で著作権に対抗する試みだった
    「Copyleft」という名前自体がそれを表している
    ところがAIは著作権そのものを侵食している。
    今やGPLプログラムだけでなく、クローズドソースのソフトウェアですらAIで再実装できる
    だとすればGNUはGPLを捨て、LLMを新たな武器にすべきだ

    • しかし高性能LLMは莫大な資本力を必要とする技術だ
      これはむしろオープンソースの自由を弱め、権力を大企業中心へと移す
      さらにLLMは膨大なボランティアのコードで学習しているのに、その利益は大企業が得ている
      結局オープンソースの魅力が薄れ、ライセンス尊重も失われる危険がある
    • Copyleftは著作権の反対概念ではなく、消費者に権利を与える仕組み
      特に、利用者が自分の機器で動くソフトウェアを修正する権利を保障する
      しかし特定のツールや鍵、仕様が制限されている場合、再実装は不可能になる
    • LLMが本当に自由に使える道具なのか疑問だ
      結局**「悪い企業」の武器**を借りて戦っているだけになるかもしれない
    • 実のところ、今のLLM自体が**「悪いソフトウェア企業」の実装物**だ
    • 一般人でも簡単にホスティングできるオープンソースLLMが出てくるまでは、本当のソフトウェアの自由は遠いままだ
  • すでにライセンス違反は起きていると思う
    ほとんどの大規模モデルはデータ収集の過程で利用規約に違反している
    したがってGPLコードで学習したモデルは、オープンライセンス義務に**感染(infect)**したと見なせる

    • しかし学習それ自体は著作権侵害ではない。これはフェアユース(fair use)と見なされる
      法的に重要なのは、①データを合法的に取得したか、②出力物が
      独創的表現
      に当たるか、という点だ
      今回のケースでは98.7%が新しいコードだと確認されている
    • 結局は裁判所の判断が必要だ。ただ争点は「フェアユース」の原則ではなく、出力物の変形性になるだろう
    • すでに複数の判例で、学習行為自体はフェアユースと認められている
      本当の論点は出力物がどれほど変形的かだ。
      これはNYT vs OpenAI訴訟の核心的争点でもある
  • Blanchardは「APIとテストだけをClaudeに入力して新しく実装した」と言っているが、
    これは「目隠しをしてキャンバスに絵の具を投げたらMickey Mouseの形になった」と言うようなものだ
    彼はもともと当該コードのメンテナだったので、完全に独立しているとは言いがたい

    • しかし実際にコードを見たかどうかは重要ではない
      元のコードを入力して複製するよう設定したなら、それは依然として著作権侵害
      AIが単なる道具なら利用者の責任だし、独立した行為者ならそれ自体が侵害主体になる
    • 私はコードの再実装自体は合法で、倫理的にも問題ないと思う
      ただし、表現要素をそのままコピーしない限りにおいてだ
    • Oracle vs Googleの事例のように、APIの再実装は可能だ
      Blanchardがすべてのプロンプトを公開すれば、誰でも同じ結果を再現できるはずだ
    • Blanchardが本当にそう言ったのか、引用を見つけられるだろうか。
      私の理解では、Claudeがコードを見ていないという主張だけだった
    • ただしMickey Mouseは商標権の問題なので、その比喩は法的には正確ではない
  • 記事によれば、ClaudeはAPIとテストだけを入力としてライブラリを再実装した
    ところがGPL2では、テストスイートもソースコードの一部と見なされる
    だとすればClaudeがテストを使った場合、結果物はLGPL 2.1の基準で原作に基づく二次的著作物になりうる

    • しかし法的には**変形的利用(transformative use)**と認められる
      ただしテストをMITライセンスで再配布することはできないかもしれない
      したがって、コードだけをMITで配布し、テストはLGPLで並行配布する形が現実的だ
    • Google vs Oracle判決によれば、APIの利用はフェアユースだ
      テストケースもAPI利用の一部と見なせるかもしれない
  • 私たちの会社では、セキュリティチームが承認しないツールを使うためにAI再実装が使われ始めている
    セキュリティチームは「デフォルト拒否」方針で、エンジニアリングチームは「AI積極活用」方針を持っている
    その結果、AIで社内向けツールを新たに作るという奇妙なインセンティブ構造が生まれている
    別の結果を望むなら、まずインセンティブ設計から変えるべきだ

    • 「Not Invented Here」文化はますます**耐性(antibiotic resistance)**のように強まっている
      もしAIがセキュリティ関連コードを繰り返しうまく書けるなら、
      なぜ同じAIがサードパーティ製ソフトウェアのセキュリティ検証はできないと信じるのか。
      生産と分析の非対称性が存在する理由を問いただしたい
  • GPLの条件は配布(distribution)の時点でのみ発動する
    修正したコードを配布したり、ネットワークサービスとして提供したりする際にソース公開義務が生じる
    ただし、ネットワークサービスの提供は配布ではないため、それを補う目的で
    AGPL
    が作られた