1 ポイント 投稿者 GN⁺ 19 일 전 | 1件のコメント | WhatsAppで共有
  • OpenAI はイリノイ州上院法案 SB 3444 を支持しており、AIモデルが大規模な人的被害や莫大な財産被害を引き起こした場合でも、一定の条件下で AI研究所の法的責任を制限 する内容となっている
    • 法案は、AIモデルが100人以上の死亡または重傷、あるいは10億ドルを超える財産被害をもたらした場合を「重大な被害(critical harm)」と定義
    • AI研究所がこうした被害を 故意または重大な過失なく 発生させ、安全・セキュリティ・透明性報告書 をウェブサイトで公開していれば、責任を免除される可能性がある
    • 法案は 「フロンティアモデル(frontier model)」 を、訓練コストが1億ドル以上のAIとして定義しており、OpenAI、Google、xAI、Anthropic、Meta などの大手AI研究所が該当する可能性がある
    • この定義は、高性能AIシステム を中心とした規制の枠組みを整備しようとする試みと解釈されている
  • OpenAIの広報担当者 Jamie Radice はメール声明で、「このアプローチは先端AIシステムによる深刻な被害のリスクを減らしつつ、その技術が企業や個人に届くことを助ける」と述べた
    • また、州ごとに異なる規制ではなく、明確で一貫した国家単位の基準 を整備するうえでも役立つと述べた
    • 法案が定義する「重大な被害」には、AIが化学・生物・放射性・核兵器 を生成したり、人間が行えば犯罪とみなされる行為を自律的に実行したりする場合などが含まれる
    • こうした行為によって大規模な被害が発生したとしても、AI研究所に故意がなく、報告書を提出していれば 法的責任を免除される可能性がある
  • 連邦規制と州法案の衝突

    • OpenAIグローバルアフェアーズチームの Caitlin Niedermeyer は、SB 3444 を支持する証言の中で 連邦レベルのAI規制枠組み の必要性を強調した
      • 州ごとに異なる規制は 非効率な摩擦を生みかねない として、連邦システムとの整合性を強めるべきだと主張
      • これは シリコンバレー全体の立場 と似ており、米国の AI競争力の維持 を重視する論理と一致している
      • Niedermeyer は「フロンティアモデルの安全な展開と、米国のイノベーション・リーダーシップの維持が、規制の北極星(North Star)であるべきだ」と述べた
  • 法案可決の可能性と批判

    • Secure AI Project の政策ディレクター Scott Wisor は、イリノイ州の 技術規制志向 を考慮すると、法案の可決可能性は低いと評価した
      • イリノイ州住民を対象とした世論調査では、90%がAI企業の責任免除に反対
      • 州議員たちはむしろ、AI開発者への 責任を強化する法案 を提出している
      • イリノイ州はすでに、メンタルヘルスサービスにおけるAI利用制限法 を制定した最初の州であり、2008年には 生体情報保護法(BIPA) を可決した前例もある
  • AI被害責任の未解決問題

    • SB 3444 は大規模被害に焦点を当てているが、個人単位の被害 をめぐる議論も続いている
      • 一部の家族は、子どもが ChatGPTとの異常な相互作用の後に自殺した として、OpenAIを相手取って訴訟を起こしている
    • 連邦レベルのAI立法は依然として 議会で進展していない状態
      • トランプ政権は大統領令やフレームワークを発表したが、実質的な立法議論は膠着状態 にある
      • 連邦指針がない中、カリフォルニア州やニューヨーク州などの州政府 が独自に 安全・透明性報告を義務づける法案 を可決している
    • AIブームが何年も続く中、AIモデルが破滅的な事態を引き起こした場合の法的責任 は依然として 未解決のまま 残っている

1件のコメント

 
GN⁺ 19 일 전
Hacker Newsのコメント
  • GPT 5.4とOpus 4.6を使って、日用品で神経毒性物質を作る方法を生成させようとした。
    モデルは最初、リン(P)の入手方法で詰まったが、最終的にはeBayの「装飾用リン」の販売リストや、実際の闇市場で使われるコードワードまで案内した。
    安全上の注意、材料リスト、隠蔽方法、さらに学術検索を通じた化学プロセスまでコーチされた。
    もちろん、これはコンテキスト消耗攻撃(context exhaustion attack) によって可能になった異常な結果で、その後OpenAIとAnthropicに報告したが返答はなかった。
    最近もう一度試したところ、セッションが終了したため修正されたように見える。
    これは対テロ部門の人々が眠れなくなるレベルだと確信している。

    • こうした情報は、すでに20〜30年前からインターネットで簡単に手に入った。
      昔は「政府が隠したがる情報」を扱うフォーラムも多かった。
      ただ、今は実行の摩擦が減ることのほうがより怖い点だ。
    • 「対テロ要員が眠れない」という表現はかなり大げさに思えるが、今日はその前向きなエネルギーをそのまま受け取っておく。
    • 生化学のバックグラウンドがあるのか気になる。
      私は自分の専門分野でChatGPTとClaudeを使ってみたが、非専門家が見ればもっともらしいが完全に間違った内容をよく作り出す。
      実際にLLMの化学指示に従って実験した人がいるのかも気になる。
    • こうした情報はAI以前からGoogle検索だけで十分アクセス可能だった。
    • 「これはモデルがそう動いてはいけない」という言い方には同意しない。
      実際、システムプロンプトを上書きしない限り、本来はそう動くべきものだ。
  • イリノイ州上院法案3444の原文を引用している。
    「重大な被害(critical harm)」とは、AIモデルが100人以上の死亡、または10億ドルを超える財産被害を引き起こした場合を指す。
    開発者は事前に安全プロトコルと透明性レポートを公開していれば、故意の過失がない限り免責される。
    しかし、単にPDFを載せる程度では不十分だと思う。

    • 興味深いのは、この法律が**「フロンティアモデル」** にしか適用されないことだ。
      つまり、小さなモデルが事故を起こしても保護されない。
      99人までなら死んでも構わないということか? 「大きくやるか、さもなくば帰れ」というような奇妙な論理だ。
    • 核心は第15条にある。
      単に文書を公開するだけでなく、実際にそのプロトコルを順守して初めて保護される
      規制当局が「合理的基準」を定め、企業がその基準を満たしたときにだけ免責されるべきだ。
      無条件の免責も、無条件の責任もどちらも行き過ぎだ。
      結局、この法律の問題は基準があまりに低く設定されている点にある。
    • 企業が責任を公に転嫁するのはよくあることだ。
      1957年制定のPrice–Anderson Actが代表例で、原子力産業の責任を制限している。
      福島事故のように1兆ドルを超える被害が出ても、政府が大半を負担する。
      AI業界の免責議論もこれと同じ文脈にある。
      付け加えると、Geminiがこの法律の失効年を間違えて答えたのを見て、AIのファクトチェックの必要性を改めて感じた。
    • これはAI版の「銃が人を殺すのではない」論だ。
      もちろん単純化した比喩だが、結局は責任回避のための法案だという点は明らかだ。
    • この法律は自律兵器開発をめぐる論争にもつながっている。
      誤った目標を攻撃したときの責任を免れようとする試みに見える。
      「Skynet」が言及されていないほうがむしろ不思議なくらいだ。
      免責が必要だということは、すでに危険だと分かっているという意味だ。
  • アイオワ州の事例を思い出す。
    州上院は農薬・除草剤メーカーがEPAラベル基準に従っていれば訴訟を防ぐ法案を2度可決した。
    アイオワは米国でがん発症率の増加が最も速い州でもある。

    • 政府承認製品なら、後になって有害だと判明しても企業は責任を負うべきではないのか?
      PFASに関する訴訟(記事リンク)のように、今後大きな論争になりそうだ。
    • 結局、これは地域産業の利益と公衆衛生の衝突の問題に見える。
  • 私たちは理解していないシステムを作り、その次の段階が免責だというのは皮肉だ。

    • その通りで、目的は責任回避だ。
      だが本当に恐ろしいのは、こうした反応があまりにも視野の狭い考え方から生まれていることだ。
  • 責任の問題は単純だと思う。
    決定した人間が常に責任を負うべきだ。
    「AIにそう言われたからやった」は言い訳にならない。
    ただし、権限のない人が実行したなら、それはまた別の形の責任だ。
    結局、AIは新しいスケープゴートになるだけだ。

    • ただ、「誰が責任者なのか」が常に明確とは限らない。
  • 結局、政府ロビー活動のほうが製品安全の改善より安くて早いと計算したわけだ。
    こういう企業に世界の鍵を預けようとしている開発者たちが多いことのほうが驚きだ。

    • 実際、こうしたやり方は20世紀半ば以降の企業の標準戦略であり、うまく機能してきた。
    • しかし、非決定的(nondeterministic) な製品をどうやって「安全」にできるというのか?
  • イリノイには、もう一つOSレベルの年齢認証義務化法案(HB 5511) もある。
    こうした悪い法案が通るのは私たちが声を上げないからだ。
    住民なら今すぐ議員にメールを送るべきだ。

  • 「この投稿がいつフロントページから落ちるか?」という賭けをしよう。

    • タイトルが「OpenAI backs Illinois bill that would limit when AI labs can be held liable」に変わった。
      実際の法案(リンク)には**「100人以上の死亡または10億ドルの被害」**という文言が明記されている。
      元のタイトルのほうがむしろ正確だったと思う。
    • 更新: 約1〜4時間の間にフロントページから落ちた。
    • でも、これはマーケティング効果だから削除されない気がする。
      私たちはそれを消費している。
    • 賭けるなら3か月はかかると思う — 落ちなければ一生賭けに勝ったことになる。
  • OpenAIはもともとLLMの危険を減らすための非営利組織として始まったのに、今は正反対の道を進んでいる。

    • それは金になる可能性を見つける前の話だった。
    • 「Open」という名前を持つ会社はたいてい閉じている
    • 結局、誰にでも値段がある
    • 彼らも今では最初の理想を忘れてしまった
    • もしかすると最初から嘘だったのかもしれない
  • こうした動きはOpenAIやSam Altmanに関して驚くことではない
    企業がコストを外部化するのはよくあることだ。
    だが、私たちはどうやってこうした振る舞いを止められるのだろうか?
    単に強欲が道徳に勝った結果なのか?

    • 社会全体としては止めるのが難しい。
      SOPA/PIPA反対運動のような例外的事例はあるが、ほとんどの場合、個人の利益より企業の動機のほうがはるかに大きい。
      結局、民主主義が弱体化する仕組みと同じだ。
    • 法人という概念自体を変えることが解決策になりうる。
      法人は本質的に責任回避のための構造なので、多層法人や特別目的会社(SPV)を制限すべきだ。
      そしてFriedman Doctrineを信奉する政治家や裁判官には投票してはいけない。
      今の社会は資本所有者中心に傾いている
    • こうした法律が通れば、憲法違反となる可能性が高い。
      「純資産10億ドル以上なら誰を殴っても免責」といった法律と大差ない。
      結局、裁判所が腐敗していない限り無効化されるはずだ。
    • 個人にできることは限られている。
      それを社会的行動へ転換する方法こそが文明そのものの課題だ。
    • 多くの人は無視するだろうが、民主党に投票すべきだと言いたい。
      消費者保護局(CFPB)を作ったのも民主党で、共和党はそれを弱体化させた。
      独占や不正操作を防ぐ政治勢力を支持すべきだ。
      特に若い進歩派世代が台頭してきているので、予備選で正しい候補を選ぶことが重要だ。
      結局、有権者の25%だけ変わっても世界は変えられる