- Meta Platformsは、欧州連合(EU)のAI実践規範に署名しないと正式に発表した
- Metaのグローバル政策責任者であるJoel Kaplanは、この規範は過剰な規制であり、イノベーションと成長を阻害すると強調した
- この規範は、AI Act(2024年制定)の順守に向けた透明性および安全性のガイドラインを提供することを目的としている
- 欧州委員会は先週、汎用AIモデル向けの最終的な実践規範を公開し、各企業は署名するかどうかを自主的に決定できる
- Metaのほか、ASML, Airbusなどの企業が施行延期を求める書簡に参加した一方、OpenAIは実践規範に加わる意向を示している
Metaの欧州AI実践規範拒否の背景
- Meta Platformsは、欧州連合のAI実践規範に署名しないことを正式に発表した
- グローバル政策責任者のJoel Kaplanは、「欧州はAIに関して誤った道を進んでいる」との立場を明らかにした
- Kaplanは、この規範がモデル開発者に法的な不確実性をもたらし、AI Actの範囲を超える過剰な措置を導入していると主張した
- この実践規範は、昨年制定されたAI Actの透明性・安全性要件を具体化するためのもので、来月から施行される予定だ
欧州連合AI実践規範の概要
- 欧州委員会は、汎用AIモデル向けの最終的な実践規範を公開した
- 各企業は、規範に署名するかどうかを自主的に決定できる
- 規範の目的は、AI Act順守のためのフレームワークを提供し、AI技術の透明性と安全性を確保することにある
業界の反応と主な論点
- MetaのKaplanは、「この規範は過度に規制的で、欧州におけるAIモデルの開発と事業成長に深刻な障害となる」と批判した
- ASML, Airbusなど一部の大企業は、施行を2年延期するよう求める書簡に署名し、批判的な立場を示した
- 一方、OpenAIは欧州の実践規範に参加する意向を正式に表明した
Metaグローバル政策責任者の交代
- Joel Kaplanは、2025年初めからMetaのグローバル政策責任者に任命された
- それ以前は、Facebookの米国政策担当副社長やジョージ・W・ブッシュ政権で勤務した経歴がある
2件のコメント
以下の Hacker News のコメントに出てきた Latham & Watkins の EU AI Act 初回ドラフト解説
European Commission Releases First Draft of General-Purpose AI Code of Practice
EU AI Act 草案の主な内容
透明性
著作権遵守
Text and Data Mining(TDM)
著作権遵守の透明性
システミックリスク分類
システミックリスク管理フレームワーク
Hacker Newsの意見
Metaだけでなく、40社の欧州企業も、AI法の施行内容が不明確だとしてEUに2年間の延期を要請していた。今回のcode of practiceは自主的な基準であり、実際の法律よりも広範だ。EUは、この基準に自主的に参加すれば規制が軽くなる可能性を示唆していたが、Metaはどうせあらゆる面で規制対象になるため、このような自主的同意には実質的なメリットが乏しいと考えているようだ。法律の重要な点は、モデル提供者がパートナーの不適切な利用に対してまで責任を負うことだ。これはオープンソースにとって非常に厳しい要件である。たとえばGPAI提供者は、著作権侵害を防ぐための合理的な仕組みを整備する必要があり、契約上もパートナーがその防止策を遵守することを明記するよう推奨されている。詳細はLatham & Watkinsの解説を参照
引用文を読むと、EUが著作権保護された資料をライセンスなしで学習データに使うことを許容する例外条項を設けた文脈が理解できる。実施には難しさもあるが、かなり洗練されたバランスを目指していると思う
この基準は妥当だと思う。オープンソースAIモデルにも、「著作権保護されたコンテンツと同一または類似の成果物を繰り返し生成しないよう適切な措置を講じること」という条項をライセンスに入れられる。これは米国法ではなく欧州法であり、「合理的(reasonable)」という概念は裁判官が双方の利害を比較衡量して解釈するため、文言だけで判断されるわけではない
市場がどう発展するか何も分からない状況で、こんな新興産業を早々に規制するのは本当にうんざりする
数多くの著作物をそのまま再生産するモデルを作るなら、その配布を認めるべきではないという点で、この基準が無理だとは思わない。それは単なるソフトウェアでも許されないはずで、AIモデルだからという理由で例外にはならない
法律条文のうち、モデル提供者がパートナーの悪用まで責任を負うという部分は、実際の法文[0]にはなく、Code of Practiceの著作権章に含まれている内容だ。ただしこのCodeは、法律に追加要件を課すものではなく、法律を「どう」遵守できるかの例を示す性格のものだ。たとえば法律では「machine-readable opt-out」を尊重することを求めているが、具体的な方法は示しておらず、コードではrobots.txtの活用を例示している。著作権関連の内容はmeasure 1.4に明記されており、a) モデルが著作権侵害コンテンツを再生産しないよう技術的措置を講じること、b) 著作権侵害的な利用を認めないことを利用規約または文書で明確にすること、オープンソースモデルの場合はその旨を文書で案内するだけでもよい。このCode of Practiceは自主的に署名した場合にのみ適用され、他人が私のモデルを持ち出して署名したからといって私に責任が生じるわけではない。PhotoshopプラグインをGPLで公開したからといってPhotoshopのソース公開を強制できないのと同じだ。法律にはオープンソース例外がかなりある。Metaが反発しているのは、EU AI OfficeがMeta AIをオープンソースと認めておらず、そのためこうした例外を受けられないからのようだ。詳細な原文は法令リンクとCode of Practiceリンクを参照
Metaの反応を見るだけでも、今回のAI法は私たちに本当に必要な内容なのだろうという先入観が生まれることは認める。実際に何が入っているのかよく知らないのに、そう感じてしまう
「AI Code of Practice」は全3章で構成されており、ここおよび草案履歴で確認できる。まだ全文は読んでおらず、以前のAI法(artificialintelligenceact.eu)のほうにしか馴染みがない。推測するにMetaは、第2章の著作権関連、とくに著作権資料の無断クロール慣行と衝突する点を問題視しているのだろう。これが本当に「フェアユース」に当たるのかは今なお不明確だ
ある企業が「邪悪」だからといって、その主張が必ず間違っているとは限らないと思う
ガイドラインの要約を知りたい人はこちらで確認できる。確かに負担の大きい規定で、実際に見ると大手著作権者・弁護士・官僚に有利なようにも見える
こうした規制は、結局は欧州企業にとって罠になりかねない。ある規模を超えた瞬間に規制負担が急増するため、中小・新興の欧州AI企業にとっては、成長の閾値を超えること自体が怖くなる。一方で米中のビッグテックは、はるかに速く革新できる環境の中でAIの水準を高め、資本も拡大できる。結果として、洗練された製品と潤沢な資金力を持ってEU市場に参入し、真の競争はむしろ彼らに有利に傾くかもしれない
欧州はAI産業を育てたこともないのに、産業全体を過度に細かく規制しようとしている。規制のための規制という水準だ。DraghiのEU競争力報告書で変化のきっかけを期待していたが、実際のEUはその方向をまったく変えておらず、とても失望している。EUの政策に対する信頼を失う
「負担が大きい」と表現していたが、具体的に何がそんなに重いのか気になる
EUの規制は、ときにクッキー政策のように世界全体を従わせる力を持っていた。概して、少数派が多数派に要求を通すには、遵守コストが逆らうコストより低くなければならない。しかしAIは違う。規模が大きすぎるし、誰も止まらないだろう。AIは核戦争でも起きない限り止められない
AIの潜在的リスクは極めて大きい。自動化兵器から悪意あるAGIまで想像できる。ドイツには東西分断時代の自動機関銃のトラウマが残っており、ウクライナもまた激しいドローン戦による深刻な心理的衝撃を受けている。AIの現実的なリスクも明らかであり、規制と法律は不可欠だ
クッキー法の結果は、人々が終わりのないポップアップに悩まされるようになっただけだ。uBlockがなければウェブ利用自体が苦痛だ。ユーザー追跡はサーバーサイドへ移行し、実際のプライバシー保護は向上していない。資金があまりに大きく動くので、業界はこうした穴だらけの規制を簡単に回避してしまう
欧州規制に無条件で同調するコメントが多いことに驚いた。基本的に欧州規制は過剰で設計も悪いと考えているのは、自分だけなのだろうか
欧州はこれまで米国ビッグテックの独占を打ち破る政策を打ち出したことがない。EUユーザーの大半は、依然としてGoogle、Meta、Amazonに依存している。EUの目標は米国企業に真正面から対抗することではなく、礼儀を求め、いくつかの国家安全保障上の利益を守る程度なのだろう。あまりに紳士的だが、本質的には合理的な立場だ
市民保護の観点からすれば、規制が厳しくても何が悪いのかと思う
「盲目的」と決めつけるのは、自分は正しく相手は無知だからそう判断したのだと仮定することになる。自分でも「基本的にそう思う」と言っているのだから、それは自分自身を批判しているのと同じだ
実際のところ、欧州を押さえつけようとする外部の意見があまりにも多く介入している気がする
「基本的にそう仮定する」こと自体が問題だと思う。まず仮定するのをやめて、関連する内容を自分で読み、自分なりの意見を持つことが重要だ。超国家的な大企業の意見だけでなく、各自が自分の見解を持ってみてはどうか
EUがLLMにも、あらゆるウェブサイトのようにポップアップを全部付けるようになるのではないかと不安になる
インターネットにはもともと、さまざまなポップアップや注意を引くUXパターンがあふれているのに、なぜ問題視されるのが、ユーザーに追跡拒否を自分で選ぶ機会を与えるポップアップだけなのか不思議だ
ポップアップを義務化したのはEUではなく企業側だ。ウェブサイト運営者が自らデータ収集を減らすか、最初から避ければポップアップは不要なのに、むしろ使い勝手を犠牲にして無意味なポップアップを導入した。その結果が今の混乱だ。少なくとも何も収集しないサイト(例: Fabien Sanglardブログ)にはポップアップが一切ない。EUの失敗は、こうした悪用まで予想できなかったことだろう。結果はかなりひどい
ポップアップなしでも十分できるのに、誰もが大企業の真似ばかりしている。ユーザー体験より模倣が優先されている
こういうポップアップは本当に嫌いだ。こんな状況がいつまでも放置されているのを見ると、担当者たちがいかに鈍いかが分かる
Metaの成長阻害が目的なのだろうと予想している。LinkedInの投稿を見ると、Metaはむしろ欧州企業の成長阻害を懸念していると述べている。「こうした過度な規制が、欧州におけるフロンティアAIモデルの開発・展開を妨げ、その上にビジネスを築こうとする欧州企業まで萎縮させる」としている
Metaが「他社と懸念を共有している」と言うとき、実際の意味は、その場その場で自社PRに都合のいい理屈を使っているだけだ。実際には公益や他社の利益など気にしておらず、ひたすらデータをもっと集め、広告をもっと売りたいだけだ
実際のCode of Practiceをざっと見ても、とくに行き過ぎているとか「過度な権限濫用」と言える部分はない。結局のところ、モデル提供者に透明性ある行動を求めているだけで、Metaの従来のやり方と衝突しているにすぎない
KaplanのLinkedIn投稿には、政策のどの点が問題なのかがまったく書かれていない。「成長を阻害する」という表現も、実際には新機能導入時にopt-inを義務付ける程度の穏当な話かもしれないと思う
グローバル環境はますます二極化しており、Metaは不満や対立を増幅させることに一役買ってきたと思う。いつか欧州に行って、オープンソースLLMを自由に使いたい
この議論が「規制があればAIの進歩は止まる」という結論に流れてほしくない。著作権や情報源の保護にも十分な価値を認めるべきだ