2 ポイント 投稿者 GN⁺ 9 일 전 | 1件のコメント | WhatsAppで共有
  • 内部流出データにより、Teslaが自動運転機能に関する数千件の重大事故と欠陥報告を把握しながら、公道での試験を続けていた状況が明らかになった
  • 急加速の苦情は2400件超Autopilot関連事故は1000件超が記録され、多くの項目が未解決と表示されていた
  • 一部の車両は理由のない急加速と急ブレーキを示し、周辺環境の誤認識が高速走行時には致命的な衝突につながり得る
  • 死亡事故の訴訟では削除された車両データが復元され、事故当時に車両が障害物を検知していたにもかかわらず、回避動作をせず衝突直前に警告音だけを鳴らしていた事実が確認された
  • 米国の陪審はTeslaに2億4300万ドル超の賠償を命じ、司法省と道路交通安全当局の調査にまで発展し、公道での自動運転試験の責任をめぐる論争が拡大している

概要

  • 内部データ流出をもとに、Teslaが自動運転機能に関する数千件の重大事故および欠陥報告を隠したまま、公道での試験を続けていた実態が浮き彫りになった
    • 流出資料によれば、Teslaは自社システムの致命的欠陥を数年前から認識していた
    • 最初の陪審評決で、Teslaは死亡事故の被害者に2億4300万ドル超を賠償するよう命じられた
  • 自動運転車が約束した期待とは裏腹に、一部の利用者にとっては悪夢となっており、AIベースの運転システムが十分な検証なしに市場へ急いで投入されたとの指摘が出ている
    • Elon MuskとTeslaが道路を試験場のように利用していたという調査結果にも触れられている
  • 重大事故の被害は運転手や同乗者にとどまらず、他の道路利用者まで本人の意思とは無関係にシステム欠陥へさらされている

流出データの要点

  • 大規模な内部文書流出で、顧客苦情数千件と多数の事故記録が確認された
    • 急加速関連の苦情は2400件超
    • Autopilot関連事故は1000件超
  • 多くの事例で、案件処理項目が**"未解決"**と表示されていた
  • 文書全体から、Teslaがシステム欠陥の規模を認識していたことが示されている

路上での致命的な「幻覚」

  • 一部のTesla車両で、理由のない急加速急ブレーキの事例が言及されている
    • 記事ではこのようなAIの誤作動を**"幻覚"**と表現している
    • ChatGPTが完全に誤った答えを返す現象になぞらえている
  • 自動運転システムは周辺環境を誤って解釈することがあり、高速走行ではこうした誤りが致命的な結果につながり得る
  • Autopilotの欠陥はTesla利用者だけの危険ではなく、道路上のすべての利用者に影響する
    • 多くの人はTeslaの実験対象になることに同意したことはないが、実際にはその欠陥にさらされている

被害者たちの法的対応

  • Naibel BenavidesはAutopilotモードのTeslaが関与した事故で死亡した
    • 当時は歩行者だった
  • Dillon Anguloは同じ事故で生存したが重傷を負い、事故の後遺症が続いている
    • 「オートパイロットの存在を知らず、知ってからはモルモットのように感じた」という発言が含まれる
  • 遺族はTeslaを相手取って訴訟を提起した
    • Teslaが重要な情報を隠したと主張
    • Teslaは一貫して運転者の責任を主張してきた

損傷したと主張された事故データ

  • 事故調査の過程で、車両のブラックボックスデータの確保が必要だったが、Teslaはそのデータが損傷していたと主張した
  • 被害者側の弁護団は専門家を動員し、削除されたデータの復元に成功した
    • 復元された情報によれば、Teslaは事故当日の夕方からすでに欠陥を把握していた
  • 事故当時、車両は障害物の検知には成功していたが、衝突回避動作は行っていなかった
    • 衝突直前に警告音だけが鳴った

歴史的判決

  • 米国の陪審はTeslaに対し、2億4300万ドル超の損害賠償評決を下した
  • この判決はAutopilot関連事件で初の重大判決と位置づけられている
    • 陪審はTeslaと運転者の双方に責任があると判断した
  • 被害者側の弁護士はこれを司法の歴史的な日と評価した
    • 公道をメーカーの実験室のように使うことはできないと示した判決だと言及している
  • Teslaは評決の取り消しを試みたが、2月末に連邦判事が制裁を維持した
    • 会社にはなお控訴の可能性がある

米国内で広がる調査

  • Teslaは米国で複数の調査の対象となっている
    • 司法省は消費者欺瞞の有無を調査中
    • 道路交通安全当局も別途調査を進めている
  • 内部告発者たちは当局に証言し、会社が安全より速度を優先したと述べている
  • 試験版の自動運転機能が市場に性急に投入され、複数の従業員が経営陣にAutopilotの危険性を警告していたという証言も含まれている
  • 専門家たちは、今回の最初の判決が追加訴訟につながる可能性を見ている
    • Teslaを相手取る新たな裁判への道を開く判決だと言及されている

1件のコメント

 
GN⁺ 9 일 전
Hacker News の意見
  • Teslaが衝突の数秒前に Autopilot を解除し、事故当時に有効だったと記録されないようにしていたという状況証拠は本当に衝撃的だった。関連内容は Futurism の記事で見た

    • だから自分も、こうした 運転支援システム を気軽に使ってみようという気持ちになれない。いつ突然判断を引き継がなければならないかわからないので、最初から最後まで自分で直接コントロールするほうがまだましだと感じる
    • 公平に見るなら、報道では自動運転機能が 最初の衝突の1秒未満前 に車両制御をやめたと書かれていた。自分には、システムが対処できない状況で即座に制御を放棄するのは自然に思える。ただし、Teslaがそれを事故責任を回避する根拠として積極的に利用していた証拠が出てくれば考えを変えるつもりだ。個人的には5秒くらいを基準にするほうが妥当に見える
    • NHTSAの調査結果と食い違う部分があるようにも見えるが、Teslaは自社の FSD safety ページで、衝突前 5秒以内 にFSDが有効だった場合、事故率計算上はFSD関与事故として扱うと説明している。理屈の上では一般的な知覚-反応時間である1〜1.5秒を十分にカバーする基準に見えるが、実際にはシステムが運転者に制御を戻す disengagement 過程 そのものが反応時間を変えうると思う。運転者がブレーキや操舵を車に任せることに慣れてしまうと、単純な刺激反応ではなく、注意を引き戻して完全な手動制御へ切り替えたうえで反応しなければならないので、さらに時間がかかる可能性がある。しかも、ブレーキを踏むとかハンドルを切るといった行動が本当に意識的な制御回復のサインなのかも疑わしい。反射的な行動かもしれないと思う
    • これは以前から知られていた話で、有効記録を避けるためというより、衝突後の損傷がありうる状態 でコンピューターが制御を続けないようにする安全設計だと理解している。車が横転したり大きく損傷したりすると、APやFSDはそうした状況向けの学習をしていないかもしれず、その状態で車輪が回り続ければ乗員や救助隊員にとってより危険になりうる。自分の理解では、AEBは制動を続けるのを助けられるかもしれないが、auto-steer と cruise control は無効化されるほうが安全だ。記憶では解除基準は1秒程度だった
  • Teslaは 自動運転事故 に関する規制順守と情報開示の面で、かなり前歴が悪いと思う

    • ただ、記事そのものは中心的な主張のわりに 具体的な数値 があまりにも少なく見えた。悲劇的な個別事例は別として、全体の記述があまりに曖昧で、そのせいでかえって主張の説得力が弱まっていると感じた
  • この記事はドイツ語版も出ていた。SRF のドイツ語記事も参考にできる

    • SRFはスイスの国営ラジオ・テレビサービスなので、おそらく 4言語以上 で似たコンテンツを提供している可能性が高いと思う
  • この報道は 旧Autopilot に関する話であってFSDの話ではなく、新たに明らかになった内容も特にないように見えた。2023年から公開されていた同じ流出データに基づいているようだった。見出しも不正確に思えたし、Teslaが致命的事故を隠したという直接的な根拠は記事の中で見つけられなかった

    • Elonや Elon所有の企業 に関しては、また偽か誇張気味のクリックベイト見出しが出てきたというだけで、驚きはしないという反応だ
  • 動画と記事について少し背景を補足したい。このドキュメンタリーはスイスの公共メディア RTS が制作したもので、欧州の公共メディア全般とはやや違って、比較的資金が安定していて品質も高いほうだと思う。編集の独立性や中立性も概ね良好で、政治的にはやや左寄り程度に感じる。動画がフランス語なのは、スイスのメディアが地域の言語圏ごとに分かれているためで、ドイツ語翻訳版があるのもその構造のおかげだ。英語字幕を提案したいならRTSに直接連絡してみる価値はあると思う

    • ただ、その説明はまるで 欧州の公共メディア は普通は信頼しにくいと言っているようなニュアンスに聞こえた。なぜそう考えるのか気になった。高品質な公共放送を持つ欧州の国を思い浮かべるとリストが長くなりすぎるくらいで、むしろそうした一般化のほうが不自然に感じた
  • これらの事故も結局は 運転者の不注意 があった事例なのか気になった

    • そうだと思う。ただ、重要な争点はFSDの性質そのものが運転者の注意を逸らさせうる点だと考える
  • 自分もTeslaはあまり好きではなく、過大評価や過剰宣伝がひどいと思っているが、この記事は正直 雑な記事 のように読めた。見出しでは「TeslaがAutopilotテストのために事故を隠した方法」と書いておきながら、本文では実際に何をどう隠したのか、また誰から隠したのかが説明されていない。2022年のTeslaデータ流出と2026年の別件訴訟を混ぜているのに、そのつながりも示していなかった。Teslaに欺瞞的な約束や不十分な開示を繰り返してきたパターンがあるとは思うが、この記事はその主張をきちんと立証できていなかった

    • 自分も似た印象だった。特にMusk関連の話題ではこういうことがもっと頻繁に見られた。批判すべき点は十分あるのに、調査報道が信頼を取り戻すには、曖昧な疑惑のばらまき よりも、数は少なくても具体的な主張と根拠を示すほうが大衆とメディア双方の信頼に役立つと思う。世論を動かすには曖昧なやり方のほうが簡単かもしれないが、それは真実との整合性を必要としない危険なメカニズムだと思う
    • このコメントを見て記事を直接読んでみたが、自分も中身はあまりないと感じた。それなのに、なぜこの意見が ダウンボート を受けているのかはよくわからなかった。ちなみに自分もTeslaファンではないし、あのトラックは本当にひどいと思う
  • 全体の動画を見たいなら RTS 全編レポート動画 を見ればよい

  • ドイツ語のほうが読みやすいなら、同じ内容の ドイツ語記事 を見ればよい