4 ポイント 投稿者 GN⁺ 2025-07-20 | 2件のコメント | WhatsAppで共有
  • Meta Platformsは、欧州連合(EU)のAI実践規範に署名しないと正式に発表した
  • Metaのグローバル政策責任者であるJoel Kaplanは、この規範は過剰な規制であり、イノベーションと成長を阻害すると強調した
  • この規範は、AI Act(2024年制定)の順守に向けた透明性および安全性のガイドラインを提供することを目的としている
  • 欧州委員会は先週、汎用AIモデル向けの最終的な実践規範を公開し、各企業は署名するかどうかを自主的に決定できる
  • Metaのほか、ASML, Airbusなどの企業が施行延期を求める書簡に参加した一方、OpenAIは実践規範に加わる意向を示している

Metaの欧州AI実践規範拒否の背景

  • Meta Platformsは、欧州連合のAI実践規範に署名しないことを正式に発表した
  • グローバル政策責任者のJoel Kaplanは、「欧州はAIに関して誤った道を進んでいる」との立場を明らかにした
  • Kaplanは、この規範がモデル開発者に法的な不確実性をもたらし、AI Actの範囲を超える過剰な措置を導入していると主張した
  • この実践規範は、昨年制定されたAI Actの透明性・安全性要件を具体化するためのもので、来月から施行される予定だ

欧州連合AI実践規範の概要

  • 欧州委員会は、汎用AIモデル向けの最終的な実践規範を公開した
  • 各企業は、規範に署名するかどうかを自主的に決定できる
  • 規範の目的は、AI Act順守のためのフレームワークを提供し、AI技術の透明性と安全性を確保することにある

業界の反応と主な論点

  • MetaのKaplanは、「この規範は過度に規制的で、欧州におけるAIモデルの開発と事業成長に深刻な障害となる」と批判した
  • ASML, Airbusなど一部の大企業は、施行を2年延期するよう求める書簡に署名し、批判的な立場を示した
  • 一方、OpenAIは欧州の実践規範に参加する意向を正式に表明した

Metaグローバル政策責任者の交代

  • Joel Kaplanは、2025年初めからMetaのグローバル政策責任者に任命された
  • それ以前は、Facebookの米国政策担当副社長やジョージ・W・ブッシュ政権で勤務した経歴がある

2件のコメント

 
xguru 2025-07-20

以下の Hacker News のコメントに出てきた Latham & Watkins の EU AI Act 初回ドラフト解説

European Commission Releases First Draft of General-Purpose AI Code of Practice

  • EU AI Act は2024年8月1日に発効し、関連する義務事項は段階的に施行される予定
  • 欧州委員会傘下の AI Office が実務規範の策定を主導し、2025年5月までに準備を終え、8月2日から発効する計画
  • 2024年11月14日、EC は 汎用AI実務規範の草案 を初めて公表
  • 草案は EU の原則と価値 に沿った明確な目標、措置、主要業績評価指標(KPI)を提示

EU AI Act 草案の主な内容

透明性

  • 透明性 は実務規範の中核原則
  • GPAI モデル提供者は次の情報を文書化し、維持しなければならない
    • モデル自体に関する情報
    • 統合可能な AI システムの種類および用途
    • 許可された使用ポリシー
    • モデルライセンスの中核要素
    • 設計仕様および学習プロセス
    • テストおよび検証の方法
  • 上記情報は AI Office と各国当局、または AI システム提供者 から要請があった場合に提供しなければならない
  • 可能であれば 一般向けの情報公開 も推奨

著作権遵守

  • EU の著作権および関連する権利 の遵守が強調されている
  • GPAI モデル提供者はライフサイクル全体にわたって包括的な 内部著作権ポリシー を策定しなければならない
  • 第三者とのデータセット契約前に 著作権デューデリジェンス と Article 4(3) における権利者要件の遵守確認が必要
  • SME を除く GPAI 提供者は、モデルが 著作権侵害となる出力 を生成しないよう合理的な予防措置が必要
  • モデル提供時には、相手方が反復的な著作権侵害を防ぐ措置を約束するよう契約条件化することが推奨される

Text and Data Mining(TDM)

  • TDM を行う際、著作権保護コンテンツへの適法なアクセス権の確保義務
  • Robot Exclusion Protocol に準拠するクローラーのみ使用
  • クローラー除外が検索エンジン内でのコンテンツ検索可能性に悪影響を与えないよう注意
  • 機械可読な権利者表示に積極的に対応
  • 権利者標準の策定に協力
  • 違法複製ソースのクロールを防ぐための合理的措置が必要

著作権遵守の透明性

  • 著作権関連措置および権利者遵守事項の 公開 義務
  • 権利者が異議申し立てできる 単一の連絡窓口 の提供が必要
  • 学習・テスト・検証データのソースとアクセス権情報を AI Office に提供しなければならない

システミックリスク分類

  • GPAI 提供者は システミックリスク分類体系 に基づいてリスクを継続的に評価・対応しなければならない
  • 主なリスク項目:
    • サイバー犯罪
    • 化学・生物・放射線・核のリスク
    • モデルの制御喪失
    • AI の研究開発目的の自動化
    • 大規模な説得・操作
    • 大規模な差別

システミックリスク管理フレームワーク

  • システミックリスクが確認された GPAI モデル提供者は 安全およびセキュリティフレームワーク を構築しなければならない
  • 透明性・説明責任強化のための 文書化ガバナンス構造(独立した専門家評価を含む)が必要
  • 事故報告、内部告発者保護、公共向け透明性 措置なども明記
 
GN⁺ 2025-07-20
Hacker Newsの意見
  • Metaだけでなく、40社の欧州企業も、AI法の施行内容が不明確だとしてEUに2年間の延期を要請していた。今回のcode of practiceは自主的な基準であり、実際の法律よりも広範だ。EUは、この基準に自主的に参加すれば規制が軽くなる可能性を示唆していたが、Metaはどうせあらゆる面で規制対象になるため、このような自主的同意には実質的なメリットが乏しいと考えているようだ。法律の重要な点は、モデル提供者がパートナーの不適切な利用に対してまで責任を負うことだ。これはオープンソースにとって非常に厳しい要件である。たとえばGPAI提供者は、著作権侵害を防ぐための合理的な仕組みを整備する必要があり、契約上もパートナーがその防止策を遵守することを明記するよう推奨されている。詳細はLatham & Watkinsの解説を参照

    • 引用文を読むと、EUが著作権保護された資料をライセンスなしで学習データに使うことを許容する例外条項を設けた文脈が理解できる。実施には難しさもあるが、かなり洗練されたバランスを目指していると思う

    • この基準は妥当だと思う。オープンソースAIモデルにも、「著作権保護されたコンテンツと同一または類似の成果物を繰り返し生成しないよう適切な措置を講じること」という条項をライセンスに入れられる。これは米国法ではなく欧州法であり、「合理的(reasonable)」という概念は裁判官が双方の利害を比較衡量して解釈するため、文言だけで判断されるわけではない

    • 市場がどう発展するか何も分からない状況で、こんな新興産業を早々に規制するのは本当にうんざりする

    • 数多くの著作物をそのまま再生産するモデルを作るなら、その配布を認めるべきではないという点で、この基準が無理だとは思わない。それは単なるソフトウェアでも許されないはずで、AIモデルだからという理由で例外にはならない

    • 法律条文のうち、モデル提供者がパートナーの悪用まで責任を負うという部分は、実際の法文[0]にはなく、Code of Practiceの著作権章に含まれている内容だ。ただしこのCodeは、法律に追加要件を課すものではなく、法律を「どう」遵守できるかの例を示す性格のものだ。たとえば法律では「machine-readable opt-out」を尊重することを求めているが、具体的な方法は示しておらず、コードではrobots.txtの活用を例示している。著作権関連の内容はmeasure 1.4に明記されており、a) モデルが著作権侵害コンテンツを再生産しないよう技術的措置を講じること、b) 著作権侵害的な利用を認めないことを利用規約または文書で明確にすること、オープンソースモデルの場合はその旨を文書で案内するだけでもよい。このCode of Practiceは自主的に署名した場合にのみ適用され、他人が私のモデルを持ち出して署名したからといって私に責任が生じるわけではない。PhotoshopプラグインをGPLで公開したからといってPhotoshopのソース公開を強制できないのと同じだ。法律にはオープンソース例外がかなりある。Metaが反発しているのは、EU AI OfficeがMeta AIをオープンソースと認めておらず、そのためこうした例外を受けられないからのようだ。詳細な原文は法令リンクCode of Practiceリンクを参照

  • Metaの反応を見るだけでも、今回のAI法は私たちに本当に必要な内容なのだろうという先入観が生まれることは認める。実際に何が入っているのかよく知らないのに、そう感じてしまう

    • 「AI Code of Practice」は全3章で構成されており、ここおよび草案履歴で確認できる。まだ全文は読んでおらず、以前のAI法(artificialintelligenceact.eu)のほうにしか馴染みがない。推測するにMetaは、第2章の著作権関連、とくに著作権資料の無断クロール慣行と衝突する点を問題視しているのだろう。これが本当に「フェアユース」に当たるのかは今なお不明確だ

    • ある企業が「邪悪」だからといって、その主張が必ず間違っているとは限らないと思う

  • ガイドラインの要約を知りたい人はこちらで確認できる。確かに負担の大きい規定で、実際に見ると大手著作権者・弁護士・官僚に有利なようにも見える

    • こうした規制は、結局は欧州企業にとって罠になりかねない。ある規模を超えた瞬間に規制負担が急増するため、中小・新興の欧州AI企業にとっては、成長の閾値を超えること自体が怖くなる。一方で米中のビッグテックは、はるかに速く革新できる環境の中でAIの水準を高め、資本も拡大できる。結果として、洗練された製品と潤沢な資金力を持ってEU市場に参入し、真の競争はむしろ彼らに有利に傾くかもしれない

    • 欧州はAI産業を育てたこともないのに、産業全体を過度に細かく規制しようとしている。規制のための規制という水準だ。DraghiのEU競争力報告書で変化のきっかけを期待していたが、実際のEUはその方向をまったく変えておらず、とても失望している。EUの政策に対する信頼を失う

    • 「負担が大きい」と表現していたが、具体的に何がそんなに重いのか気になる

  • EUの規制は、ときにクッキー政策のように世界全体を従わせる力を持っていた。概して、少数派が多数派に要求を通すには、遵守コストが逆らうコストより低くなければならない。しかしAIは違う。規模が大きすぎるし、誰も止まらないだろう。AIは核戦争でも起きない限り止められない

    • AIの潜在的リスクは極めて大きい。自動化兵器から悪意あるAGIまで想像できる。ドイツには東西分断時代の自動機関銃のトラウマが残っており、ウクライナもまた激しいドローン戦による深刻な心理的衝撃を受けている。AIの現実的なリスクも明らかであり、規制と法律は不可欠だ

    • クッキー法の結果は、人々が終わりのないポップアップに悩まされるようになっただけだ。uBlockがなければウェブ利用自体が苦痛だ。ユーザー追跡はサーバーサイドへ移行し、実際のプライバシー保護は向上していない。資金があまりに大きく動くので、業界はこうした穴だらけの規制を簡単に回避してしまう

  • 欧州規制に無条件で同調するコメントが多いことに驚いた。基本的に欧州規制は過剰で設計も悪いと考えているのは、自分だけなのだろうか

    • 欧州はこれまで米国ビッグテックの独占を打ち破る政策を打ち出したことがない。EUユーザーの大半は、依然としてGoogle、Meta、Amazonに依存している。EUの目標は米国企業に真正面から対抗することではなく、礼儀を求め、いくつかの国家安全保障上の利益を守る程度なのだろう。あまりに紳士的だが、本質的には合理的な立場だ

    • 市民保護の観点からすれば、規制が厳しくても何が悪いのかと思う

    • 「盲目的」と決めつけるのは、自分は正しく相手は無知だからそう判断したのだと仮定することになる。自分でも「基本的にそう思う」と言っているのだから、それは自分自身を批判しているのと同じだ

    • 実際のところ、欧州を押さえつけようとする外部の意見があまりにも多く介入している気がする

    • 「基本的にそう仮定する」こと自体が問題だと思う。まず仮定するのをやめて、関連する内容を自分で読み、自分なりの意見を持つことが重要だ。超国家的な大企業の意見だけでなく、各自が自分の見解を持ってみてはどうか

  • EUがLLMにも、あらゆるウェブサイトのようにポップアップを全部付けるようになるのではないかと不安になる

    • インターネットにはもともと、さまざまなポップアップや注意を引くUXパターンがあふれているのに、なぜ問題視されるのが、ユーザーに追跡拒否を自分で選ぶ機会を与えるポップアップだけなのか不思議だ

    • ポップアップを義務化したのはEUではなく企業側だ。ウェブサイト運営者が自らデータ収集を減らすか、最初から避ければポップアップは不要なのに、むしろ使い勝手を犠牲にして無意味なポップアップを導入した。その結果が今の混乱だ。少なくとも何も収集しないサイト(例: Fabien Sanglardブログ)にはポップアップが一切ない。EUの失敗は、こうした悪用まで予想できなかったことだろう。結果はかなりひどい

    • ポップアップなしでも十分できるのに、誰もが大企業の真似ばかりしている。ユーザー体験より模倣が優先されている

    • こういうポップアップは本当に嫌いだ。こんな状況がいつまでも放置されているのを見ると、担当者たちがいかに鈍いかが分かる

  • Metaの成長阻害が目的なのだろうと予想している。LinkedInの投稿を見ると、Metaはむしろ欧州企業の成長阻害を懸念していると述べている。「こうした過度な規制が、欧州におけるフロンティアAIモデルの開発・展開を妨げ、その上にビジネスを築こうとする欧州企業まで萎縮させる」としている

    • Metaが「他社と懸念を共有している」と言うとき、実際の意味は、その場その場で自社PRに都合のいい理屈を使っているだけだ。実際には公益や他社の利益など気にしておらず、ひたすらデータをもっと集め、広告をもっと売りたいだけだ

    • 実際のCode of Practiceをざっと見ても、とくに行き過ぎているとか「過度な権限濫用」と言える部分はない。結局のところ、モデル提供者に透明性ある行動を求めているだけで、Metaの従来のやり方と衝突しているにすぎない

  • KaplanのLinkedIn投稿には、政策のどの点が問題なのかがまったく書かれていない。「成長を阻害する」という表現も、実際には新機能導入時にopt-inを義務付ける程度の穏当な話かもしれないと思う

    • どんな規制に対しても、こういう言い訳はいつもの決まり文句のように感じる
  • グローバル環境はますます二極化しており、Metaは不満や対立を増幅させることに一役買ってきたと思う。いつか欧州に行って、オープンソースLLMを自由に使いたい

  • この議論が「規制があればAIの進歩は止まる」という結論に流れてほしくない。著作権や情報源の保護にも十分な価値を認めるべきだ