[3日 ロイター] - 米配車サービス大手ウーバー・テクノロジーズ
自動車メーカーやテクノロジー企業は、自動運転機能で走行中に必要が生じた場合は、人のドライバーが介入することをあてにしている。だが最近起きた2つの事故において、どちらのドライバーも事故が起きる前に何も行動を取らなかった。これら車両は異なる技術を使用している。
自動運転車は、レーダーのようなセンサーやカメラのほか、道路の危険を検出するためにレーザー光を使用するライダーで成り立っている。しかし、こうしたシステムには基準がないばかりか、全てのメーカーが同じ組み合わせのセンサーを使用しているわけではない。一部の車両には盲点がある可能性もある。
ドライバーに注意を促しても、響かないこともよくある。
「思いのほか、人には自動運転に取って代わる能力がない」と、自動運転車の専門家で投資家のエバンゲロス・シモウディス氏は言う。
米アリゾナ州で先月起きたウーバーの事故では、商業利用に向けた完全自動運転システムのテスト中、車両が道路を横断中の女性に衝突し、女性は死亡した。車内から撮影された映像では、ドライバーは道路ではなく、下を向いているように見える。映像が切れる直前になってドライバーは道路を見上げ、急にショックを受けたような表情に見える。
同じく先月のテスラの事故では、市販されている「モデルX」が半自動運転機能「オートパイロット」で走行中に衝突事故を起こし、ドライバーが死亡した。同社によると、ドライバーは直前にハンドルを握るよう警告を受けていたという。
テスラのような一部の半自動運転機能を備えた車両は、ドライバーが車線から外れないように、あるいは一定の車間距離を維持するように支援するさまざまなテクノロジーを採用している。そのようなシステムは、音を出したりハンドルを振動させたりして警告を出し、ドライバーの注意を引いている。
Copyright © Thomson Reuters
Special
PRアクセスランキング