10 ポイント 投稿者 GN⁺ 19 일 전 | 1件のコメント | WhatsAppで共有
  • Linus TorvaldsによるLinuxカーネルの公式ドキュメントで、AIコーディングツールで貢献する際も 既存のカーネル開発プロセスとコーディングスタイルにそのまま従う必要がある
  • AIはSigned-off-byタグを追加できない — 法的に認証できるのは人間のみであり、人間の開発者がAI生成コードのレビュー・ライセンス遵守・法的責任のすべてを負う
  • AIが関与したコードには Assisted-by: Claude:claude-3-opus coccinelle sparse のような形式で モデル名:バージョンおよび解析ツール を明記しなければならない
    • git、gcc、makeのような基本的な開発ツールは記載対象から除外
  • すべての貢献は GPL-2.0-only 互換でなければならず、SPDXライセンス識別子 が必須

1件のコメント

 
GN⁺ 19 일 전
Hacker Newsの意見
  • 基本ルールはAIを使ってもよいが、コミットに対する責任は全面的に人間にあるということ
    コードがライセンス要件を満たすべきという点は常識的に聞こえる。ほとんどの開発者が同意しそうな内容だ

    • これは本当にまともで、拍子抜けするほど合理的なポリシー
      ただ、こうしたことをわざわざ明文化しなければならないのは驚きだ
      最近はAIが生成したコードを理解もしないままオープンソースに上げて、あとで問題が起きると「AIがやった」と責任逃れするケースが多い
      こういう状況では、メンテナーがAIコードに懐疑的になるのも当然だ
    • LinuxコミュニティにはAI支援コミットに強く反対する人たちが多い
      Torvaldsの今回の方針のせいで彼を裏切り者と見る人もおり、AI生成コードがマージされたらもう二度と貢献しないと言う人もいる
    • AIの出力物がGNU GPLでないなら、単にLinux開発者が追記しただけでGPLコードになるのか疑問だ
    • AIは単なる**ツール(tool)**にすぎないのに、わざわざ著者として明記する理由があるのか分からない
  • 最近Greg KHがSashiko AIレビュアーをすべてのパッチに適用したのを見た直後なので、今回の方針はやや対照的に感じる
    AIレビュアーは実際に役立っているのに、議論はいまだに「AIコードへの責任」にとどまっている
    AIが自信満々に間違える競合状態やロックの問題こそ本当に危険な部分だ
    こうした方針が長期的な解決策なのか、それともSashikoのようなシステムがメンテナー側でのフィルタリングを強化するまでの暫定措置なのか気になる

  • Torvaldsが発表した方針は、人間がAIコードについてレビュー・署名・責任を負うことを明確に規定した
    法務レビューを経ているように見え、今後のAI支援開発の基準になるかもしれない

    • ただし実際の文書はSasha LevinがLinuxメンテナーの議論をもとに作成したものだ
    • 「Signed-off-by」はすでに形式的な手続きで、多くの初心者コントリビューターが意味も分からないまま付けていることが多い
      実際、自分のパッチが別の人のリファクタリングに含まれた際、私の名前が自動で入ったことがある
      実質的には誰でも「Co-developed-by」や「Signed-off-by」を追加でき、法的拘束力はほとんどない
  • LLMは出典を明示できないのに、どうやってライセンス遵守を保証できるのか疑問だ

    • ドイツではLLMの出力物は著作権保護の対象ではない
      著作者はAIの利用者かもしれないし、モデル開発者かもしれず、法的な不確実性が大きい
      こうした状況なら、長期的にはカーネルのライセンス自体が無力化される可能性もある
      関連内容はKPMG LawのAIと著作権に関する記事で扱われている
  • 「Assisted-by:」タグをAIモデルの表示に流用するのは奇妙だ
    もともとは人の助力を示すタグなのに、今や二つの意味を持ってしまい混乱する
    通常は「AI-assistant:」のような別タグを使うのが一般的だ

  • オープンソースの正しい方向性は、人間とエージェントのつながりを明確にし、人間が最終検証の責任を負うことだ
    Linusに感謝したい

  • AIが作ったコードであっても、責任は人間にあるという常識的な原則が歓迎できる

  • 「下手な職人ほど道具のせいにする」という古いことわざの逆転のようだ
    結局のところ、道具の選択と使用責任は人間にある

  • この方針はLinuxを著作権侵害の責任から守ってはくれない
    まるで小売店が「仕入れ先がTHCを除去したと信じている」と言うようなものだ
    自分で免責を宣言したからといって法的責任が消えるわけではない

    • ただしLinuxカーネルは法的実体ではなく、コントリビューターの集合体
      たとえ侵害コードが含まれていても、訴訟の対象はLinuxユーザーや企業になるだろう
      現実的にはそうした訴訟が起きる可能性は低い
    • AIコードを使う企業は多いが、だからといって皆が法的責任を負っているわけではない
    • オープンソースプロジェクトは店と違って消費者保証を提供しない
      そもそもこのたとえ自体が適切ではない
    • 実際にはAIコードだからといってより危険というわけではない
      人間がその気になれば非公開コードをコピペして署名することもできる
      結局のところ問題は嘘をつく人間だ
  • 「すべてのコードはGPL-2.0-onlyと互換でなければならない」という条項があるが、
    AIがさまざまなライセンスのコードで学習されている状況で、それをどう保証できるのか疑問だ

    • 答えは簡単だ。AIを使った人が責任を負う
      AIが間違えたならその責任も人間にある。不安ならAIを使うべきではない
    • 実際のところ、人間の開発者だってGPLコードだけを見てきたわけではない
    • 著作権の解釈は裁判所の仕事であり、Torvaldsが予測すべき問題ではない
      ただしAIがランタイムで別のコードベースを参照するなら、より危険かもしれない
    • ある人は「AIが作ったコードはパブリックドメインなのでGPL違反ではない」と主張している
      だがこうしたアプローチはむしろライセンスの意味を薄める可能性がある
      「AIが100%書いたが自分がレビューした」という注釈だけでは法的効力が弱い
      こうした問題を知らせるために、「100% vibecoded」プロジェクトにパブリックドメインへの再ライセンス問題を起票しようという提案もある