1 ポイント 投稿者 GN⁺ 2025-09-30 | 1件のコメント | WhatsAppで共有
  • カリフォルニア州知事AI透明性を強化する法案に署名
  • 今回の法律は、AIシステムの開発および利用における透明性の基準を示すもの
  • 企業にはAIの意思決定プロセスとその影響に関する情報を開示する義務が生じる
  • 主な目的は消費者保護とAIの誤用に対する責任強化
  • 法施行により、AI産業の規制と倫理的な開発を促進する基盤が整う

カリフォルニアAI透明性法案の概要

  • カリフォルニア州知事が、AI透明性強化のための新たな法案に正式に署名
  • この法案は、企業や機関がAIシステムを開発または活用する際、意思決定プロセスに関する情報を公開するよう求めるもの
  • 主な内容として、AIがどのようなデータと基準を用いて結論を導いたのか、そのシステムの潜在的な影響が何かについての説明責任を明記
  • 消費者がAIベースのサービスや製品を利用する際、自分がアルゴリズムの決定の影響を受けていることを認識できるよう、透明性確保の仕組みを整備
  • 最終的に今回の法案は、AI産業の説明責任向上とともに、AIの誤用防止および消費者信頼の回復を目指す
  • 法施行を通じて、カリフォルニアは米国内でAI倫理と規制を先導する州として位置づけられる見通し

1件のコメント

 
GN⁺ 2025-09-30
Hacker Newsのコメント
  • 現実世界の問題として、この法案が私の知的財産(IP)がLLMによって許可なく使われるのを防げるのか気になる
    • この法案の最大の目的は、実データに基づく議論ができる基本フレームワークを提供することだ。だから技術企業に安全計画、透明性報告書、事故履歴の公開を求めている。罰金も1万ドルと低く設定されているのはそのためだ。包括的なAI規制は現時点ではまだ早く、カリフォルニアは米国著作権法を所管する主体でもない
    • 政府に対してパブリック・コンピューティング・クラスターの開発フレームワークを作るよう指示している。この法案では一部の政府契約業者に大きな利益が転がり込む可能性が高く、歴史的に見ても随意契約の形で特定の人に金が流れることもあり得ると思う。関連記事: Sacramento Beeの社説
    • 内部告発者保護条項が含まれている。これによって違法行為が暴露される可能性がある
    • 今でも人間によるIP侵害と同じ形で保護できる
    • 結局この法案は、政府職員により多くの金を与えるという現実的な問題を解決している
  • 実際の法案条文と注釈を見られるウェブサイトを見つけた: https://sb53.info/
    • 「人工知能モデル」の定義を見ると、自律性の水準がさまざまな機械ベースのシステムで、入力から出力を導き、物理的または仮想環境に影響を与えられるものはすべて該当する。つまり、単純な芝刈り機でも入力(スロットル、キルスイッチ)と出力(回転刃)の関係があるので含まれ得る。「致命的リスク」の定義は50人以上の死亡・重傷、または10億ドル以上の損失が発生し得るリスクとなっているが、毎年芝刈り機でけがをする人だけでもこれより多い
  • 法案原文を読むと、「AI安全」産業への優遇措置のように感じる。コンプライアンス認証で高い報酬を受けられる
    • Big4会計事務所にはコンサル部門の分離を阻んでいる年配のパートナーたちがいるが、今回のAI法案は彼らにとって新たな収益源になる。特にdeloitteが今回大きく得をするだろう
    • 上のコメントを書いた人は大手AI開発企業に勤めている。AI規制に反対する立場は自分の給料と強く結び付いている。「AI安全」を嘲笑の対象にする傾向もある。シリコンバレーの多くの業界は安全文化への認識が不足している。規制の効率が悪いのは問題だが、規制がまったくない場合に起きる問題も考えるべきだ。業界内部の不正、リベート、談合も必ず指摘しなければならない
  • 法案には「死亡、重傷、致命的リスク」をもたらす故意の違反について、初回違反は100万ドル、その後は最大1000万ドルの罰金と明記されている。非故意の違反(ミスなど)がそのリスクを生んでも罰金はない。罰金には上限しかなく下限はない。つまり、0ドルでも「最大1000万ドル以下」という条項を満たす
  • 10億ドルの損害を起こしても罰金は1000万ドルだけなのか? 「致命的」な損害でも同じだ。これは規制ではないと思う。OpenAIがエンジニアに年100万ドル払っているとしても、1万ドル罰金、あるいは100万ドル、1000万ドルの罰金ではまったく抑止力がない
  • 議論だけを見ると、この法案は何の意味もない一方で、同時にカリフォルニアをジオブロックする理由にもなる。やりすぎなくらい多くのことをしながら、同時に少なすぎる。コストも高いし、低くもある。腐敗の例でもあり、AI規制の第一歩でもある。AI企業がカリフォルニアを離れるかもしれないし、規制の基準が低いので逆にもっと入ってくるかもしれない。実際にもっと踏み込んだ議論があるならリンクを知りたい
    • あらゆる結果があり得るが、実際に政府や裁判所がどう解釈し執行するかで変わると思う。法文自体があまりにも曖昧で、ハンマーにもなり得るし、何の影響もないかもしれない
  • 連邦法であらかじめ統制すべきだった事案だと思う。だがこの法案の定義はあまりに粗い。特に「人工知能モデル」の定義は、事実上すべての機械とアルゴリズムを含んでいる。この定義は、『トワイライト・ゾーン』を見ながら、鳩時計付きアンドロイドでも出てくるかもしれないと心配して備えたように見える
  • カリフォルニアがAIをどう定義するのか気になっていたが、今のところはマーケティング用語に近い。ここでは入力を受けて出力を生成する非生物学的システムと明記している
    • このコメントへの2つの反応が面白い: 「この定義に当てはまる実際の技術は存在しない」、「つまり、うちのコーヒーメーカー?」
    • 私の意見は上とは違う。この定義に当てはまる技術は実在しない。AIは入力から何かを「推論」できない。同様に、人間もそれが証明されたわけではない
    • じゃあ私のコーヒーメーカーも該当するのでは
  • これは一言で言えば「手続きだけ増えた検閲」だ。法案が求めているのは、企業がリスク緩和と安全プロトコルを文書化し、政府が何が危険かを定義し、民間がそれに従ってフィルタリングシステムを構築することだ。これは合衆国憲法修正第1条に反する事前検閲だ。連邦最高裁も、暴力行為の直接的扇動(Brandenburg判決)と例外的事案(児童ポルノ、真正脅迫)だけが許されるとすでに明確にしている。技術が新しいからという理由で、国家が新たな危険言論カテゴリーを作る権限を持つべきではない。AIが武器設計や犯罪幇助に関する専門家級の情報を提供する場合、政府に報告し、緩和策も提供しなければならない。今日は「致命的リスク」でも、明日は「偽情報」「ヘイトスピーチ」などへ広がり得る。いったん国家が安全を名目にコンテンツ制限を強制した時点で、論理的正当性を失う
    • すでに18 USC § 842により、爆発物の製造法など犯罪に使われる情報の提供は犯罪だ。表現の自由と実際の害悪の確率との間で均衡を取っている。AIは表現の自由の主体ではないので、国家は規制できる。企業にAI出力のフィルタリングを求めることが事前検閲だというのは、企業がAIの「発言」を統制できないという主張に基づいている。この論理は成り立たない。ランダムな組み合わせで文を生成する装置も、自分のオンラインホスティングだからといって保護されるわけではない。AI検閲に表現の自由の論理を適用するのは適切ではない
    • LLMに権利はない。LLMは道具であり、国家は道具を規制できる。たとえ気が合うなら、人が会社のブログに直接武器製造法を載せることだってできる
    • 「今日は致命的リスク、明日は偽情報、ヘイトスピーチなど」という点が問題だ。私は致命的リスクより日常的リスクのほうが心配だ。LLMが有害な情報を出すとしても、結局はオンラインにすでに公開されている内容の要約にすぎない。米国社会はヘイトスピーチに満ちているが、これも新しい問題ではない。むしろ問題は「偽情報」だ。大規模LLMがインターネットを読み、権威を上乗せすることで、GoogleやMSの力が未検証情報に付与されてしまう。LLMは「YがXを主張した」という形で案内するのがよいアプローチだ。「安全」という論点は大半が成人向けコンテンツの遮断だが、すでにPornhubの時代であり、大きな意味はないと思う。実際に議論が必要な問題は、AIが顧客をだましたり回避したりするための商業目的のカスタムサービス提供だ。これは消費者の権利の観点から扱うべきだ。もう一つの問題は、AIが私の上司として振る舞う場合(例: Uber)だ
    • この15年のソーシャルメディアの発展を見てきて、迅速なリスク評価と対応があまりにも遅かったという教訓を得た。ソーシャルメディアはすでに政治的影響力を築いてしまい、実質的な規制がほぼ不可能な状態にある。生成AIでも同じ過ちを繰り返してほしくない