- オースティンで運行中のテスラ「ロボタクシー」車両が、直近1か月でさらに5件の事故を記録し、サービス開始以降の累計は14件に増加
- 新たに報告された事故の中には、入院治療が必要な負傷者が発生した事例も含まれており、テスラはこれを数か月後になってから修正報告
- すべての事故報告書が非公開扱いとなっており、事故原因やシステム責任の有無を外部から確認できない
- 累計走行距離約80万マイルを基準にすると 5万7,000マイルあたり1件の事故で、テスラが独自に公表した人間の運転者の平均より約4倍高い比率
- Waymoなど競合他社と比べても性能・透明性の両面で後れを取っている状況であり、安全モニターが同乗した状態でも事故率が高い点が問題として指摘されている
オースティンでの追加事故報告
- テスラは2026年1月、2025年12月〜2026年1月の間に発生した5件の新規事故報告書をNHTSAに提出
- すべての事故はModel Y車両が自動運転システムを「有効状態(verified engaged)」にしたまま走行中に発生
- 具体例として、前進走行中の固定物への衝突(時速17マイル)、停車中のバスとの衝突、時速4マイルで大型トラックと衝突、後退中に柱・木・固定物に接触したケースなどが含まれる
- テスラはすべての事故記述部分を**「機密事業情報(confidential business information)」として完全に黒塗り**にした
- NHTSAデータベース内で事故内容を全面非公開にしている唯一のADS運営会社だと指摘されている
- Waymo、Zooxなどの競合他社は事故記述をすべて公開している
入院負傷に修正された2025年7月の事故
- 2025年7月に発生した事故(報告ID 13781-11375)が、「物損のみ」から「軽傷・入院治療」へ修正された
- 当初は時速2マイルでSUVと右折中に衝突した事案として報告されていた
- テスラは事故発生から5か月後の2025年12月になって初めて修正報告書を提出
- これにより、ロボタクシー事故による入院患者の発生が公式に確認された
- 報告の遅れと非公開処理により、事故報告の信頼性に対する疑問が提起されている
悪化する事故率
- 累計14件の事故と約80万マイルの走行を基準に、5万7,000マイルあたり1件の事故率が算出される
- テスラの独自の安全レポートによれば、米国の平均的な運転者は22万9,000マイルあたり1件の軽微な事故、69万9,000マイルあたり1件の重大事故を経験する
- これにより、ロボタクシーの事故率は人間の運転者と比べて約4倍高い
- NHTSAの警察報告基準(50万マイルあたり1件)で計算すると、人間比で約8倍高い事故率となる
- Waymoは1億2,700万マイル超の完全無人走行を記録しており、人身被害事故を80〜91%減らす成果を示している
- オースティン地域でもWaymoは51件の事故を報告しているが、走行距離の規模はテスラよりはるかに大きい
透明性の欠如と安全性論争
- テスラだけが事故記述を全面非公開としており、外部からシステム不具合・運転者介入の有無・相手車両側の責任の有無を確認できない
- 競合他社は事故原因や状況をすべて公開しており、独立した検証が可能
- テスラは2026年1月末から安全モニターなしで走行するロボタクシーの試験運行を開始したが、その月の前半だけですでに4件の事故が発生していた
- オースティンでの稼働車両は約42台で、稼働率は20%未満と報告されている
- 大半の車両は運行していないか、限定された時間だけ運行中
- 記事では、規制当局が介入しない現状を批判し、米国・テキサス州政府の監督不在を指摘している
Electrekの評価
- 事故件数の増加、入院を伴う負傷、全面非公開処理が続いており、テスラの安全性に関する主張は自社データと矛盾していると指摘
- すべての走行に安全モニターが同乗していたにもかかわらず高い事故率を示していることから、単なる初期的な問題とは見なしにくいと評価
- 人間の運転者より4倍高い事故率は、根本的な性能格差を示す指標として言及されている
- 読者コメントでは、Waymoとテスラを比較すること自体が不適切だという意見も示されている
- Waymoは完全無人運行で実際の顧客を乗せ、さまざまな環境で運行している
- 一方テスラは、乗客が限定された招待客、指定区域内の日中運行、監視者同乗条件で運営されている
1件のコメント
Hacker Newsの意見
安全運転手が同乗した状態でも、TeslaのRobotaxi FSDは一般ドライバーより4倍も頻繁に事故を起こしている点が興味深い
Teslaは一般顧客が旧型FSDを使う場合、150万マイルあたり軽微な事故1件だと主張しているが、Robotaxiのテストでは5.7万マイルあたり1件で、3000%の差がある
Tesla FSD Safetyページで数値を直接確認できる
一方で一般消費者は自分でハンドルを握り、いつでも介入できる状態で監視している
FSDは主に通勤など個人の運転状況で使われるため、単純比較は難しい
疲労や不注意による事故が減る環境だからである
人間のドライバーの事故率と比較するには、より多くの文脈が必要
低速バック中に固定物へぶつかる事故は、通常は警察への通報も負傷もなく済まされ、人間側の統計には含まれない
一方、NHTSAのADSデータベースにはすべての事故が含まれる
本当の問題は非公開処理にある — WaymoやZooxは詳細レポートを公開しているが、Teslaはすべてを機密扱いにしている
この不透明さのせいで、責任判断やシステム障害の分析が不可能になり、比較自体が無意味になっている
Teslaの投資家が勘違いしているのは、数千マイル無事故で走れたからといって、自動運転が完成したことにはならないという点
真の検証には、数十万マイル以上の無事故走行が必要
Elonが少数の無監督走行テストを行うたびに緊張していたはずだと確信している
自動運転が大衆化するには10億マイルあたり1人の水準まで下げる必要があり、統計的に意味を持たせるには数百億マイルのデータが必要
TeslaのRobotaxiは自動運転業界全体のイメージを損なっている
一般消費者はTeslaとWaymoの違いを区別できず、事故のニュースが出ると「自動運転は危険だ」と認識する
私の周りの非技術系の人たちも、Waymoは安全、Teslaは不安と区別している
Waymoは「自動運転」、Teslaは「Tesla」として認識されている
実際にAustinでWaymoとRobotaxiの両方に乗ったが、Waymoの完成度と安定感のほうがはるかに高かった
TeslaのCybertruckフォントデザインはあまりに子どもっぽく、ブランド好感度に悪影響を与えている
1社の事故が業界全体を崩壊させかねなかった
技術的な違いを直感的に伝える方法が必要
人間との統計比較は難しいが、明らかにまだ公道走行に適していないシステムである
大半の事故は駐車センサーさえあれば防げた
米国では規制当局がTeslaの危険性に十分対処できていない
テキサスはTeslaを後押ししているが、主要都市がそれを受け入れる可能性は低い
近いうちにRobotaxiが全国に広がることはない
Fisher’s exact testのような統計手法でも十分に分析可能
駐車センサーやサラウンドビューカメラのないモデルもあり、Robotaxiが粗雑でも驚きではない
道路環境は動的で予測不能であり、単なるバグ修正では解決できない問題だからだ
Teslaの事故の大半は低速衝突である
1〜4mphでバック中に固定物へぶつかったり、停止中にバスに追突されたりした事例がある
Teslaがメディアを信用しなくなったのは、過去の否定的な報道と空売り勢力のせいだが、今は状況が違う
ElonがTwitterを買収した事例を逆に指摘している
二重基準だという批判が出ている
当時株を保有していたかどうかを尋ねるなど、信頼性の検証を試みていた
Electrekの記事によれば、Teslaの事故の大半は駐車場レベルの低速衝突である
こうした事故は人間の運転統計には含まれない
Teslaは好きではないが、4mphのバック事故を人間の運転と同列に比較するのは誇張に感じる
ElectrekにはElonとTeslaに批判的なバイアスがある
昔は最高のEV専門メディアだったが、今は残念
ただしElonファンダムが政治集団のように過熱しているのが問題だ