運転支援ソフト動作中に起きたテスラEVの死亡事故

01.04.2018

Photo: ABC7

 

自動運転試験中に衝突事故を起こしたウーバー社に続いてテスラEVも同社の運転支援ソフト”Autopilot”が起動した状態での事故であった。3月23日にカリフォルニアのマウンテンビューの近くの市内で、テスラ社のモデルX(SUV)」が高速道路の路側帯に衝突し、運転者は死亡、車体のLiイオンバッテリーが発火して他の2台に燃え移る事故を起こした。テスラ社は今週になって同社の運転支援ソフトが関与していたことを認めた。

 

”Autopilot”は自動運転ソフトとは異なりあくまで運転支援ソフトであるため、運転者はハンドルから手を話すことは禁止されている。実際、カーブの多い道路では道路を追随する精度に問題があることがユーザーのレビューで報告されている。テスラ社はウーバー社のように本格的な自動運転の能力がないことを認めていた。しかし直線区間の多い米国の高速道路、特にカリフォルニア、では、故意に自動運転させる運転者もいたため、事故が懸念されていた。

 

テスラ社の説明では”Autopilot”を起動し追随する車との車間よりを設定可能な最小限にして運転中であった。路側帯は運転時間にして5秒間ほど続き運転者はこの時間、テスラ社が指導するようにハンドルに手を添えていなかったことがわかっている。

 

(EVのためエンジン部のない)車体前部が確認できないほど事故のダメージは大きかった原因は路側帯が、以前に衝突され緩衝効果が喪失していたことによる。テスラEVは2016年に”Autopilot”の不具合で事故を起こしているが、昨年1月の調査報告で基本的なソフトウエアの安全性の問題が無いことを確認している。

 

レーダーによる先行車追随機能を持つクルーズコントロールの進化版としてであれば、(運転者の介在を前提に)運転支援機能としての”Autopilot”は便利で安全な機能であると言える。衝突事故が40%低減した実績でもそのことは証明できるだろう。ウーバー社と今回の事故によって、自動運転のリスクが高いことも明らかになったが、テスラ社の"Autopilot"は、あくまで運転支援システムである。しかし本来であれば事故の起きるはずのない見通しの良い直線道路で進路を大きく外れて路側帯と激突したのかが問われる。

 

Credit: articlesacademy

 

"Autopilot"作動中に直線部分で事故が起きた原因究明の結果は現時点では不明であるが、逆に運転者が直線道路で運転支援を受けられなかった理由を明らかにしなければならない。