産経ニュース for mobile

自動運転の夢遠のくグーグル過失事故 人間、AI…責任は誰に?

記事詳細

自動運転の夢遠のくグーグル過失事故 人間、AI…責任は誰に?

更新

 2017~20年の実用化をめざして米グーグルが開発中の自動運転車が2月中旬、公道の走行実験中、路線バスと接触事故を起こしていたことが明らかになった。グーグルでは09年から53台の自動運転車を使って計224万キロの走行テストを実施。17件の事故が起きたが、これらはすべて相手に過失がある「もらい事故」だった。しかし今回は初めて、自動運転車側の過失で事故が発生。グーグル側も自ら過失を認め、自動運転用のソフトを変更するなど対策を取ったと説明した。これまでと異なる“重大事故”で、夢の自動運転車の実用化はまだまだ先になりそうだ。

<< 下に続く >>

 米紙ワシントン・ポスト(電子版)やロイター通信などによると、グーグル側が2月23日付でカリフォルニア州の規制当局に報告。これを受け当局が29日に公表した。

 その報告によると、事故が起きたのは14日午後3時20分。車種はトヨタ自動車の多目的スポーツ車(SUV)「レクサス」のRX450hを自動運転仕様に改造したもので、グーグルの本社がある米カリフォルニア州のマウンテン・ビューを走行中、路肩に置かれた砂袋を検知したため、一旦停止後、それをよけるため左に進んだところ、左後ろから走ってきたバスの側面に接触した。

 事故当時、自動運転車は時速3キロ以下、バスは24キロでそれぞれ走行中だったが、万一に備え、自動運転車に乗り込んでいた技術者1人と、バスの乗客15人にけがはなく、バスの乗客は全員、別のバスに乗り換えて移動したという。

 自動運転車に乗り込んでいた技術者は、後方からバスが近づくのを目視していたが「バスがこちらに気付き、減速するか停車するはずだ」と思い込んだため、ブレーキは踏まず、自動運転モードのまま走行を続けたため、今回の事故となった。

 グーグルは今回の事故を受け、声明を発表。事故の経緯を説明したうえで、「われわれの自動運転車が停止したままだったら、この事故は起きなかった。原因のいくつかは明らかにわれわれの側にある」と過失を認め、再発防止に向けて、ソフトを交換したことも明らかにした。

 これまでのグーグルの自動運転車の事故はすべて、相手側に過失がある「もらい事故」か運転手(テストドライバー)が運転中の事故だった。

 つまり、自動運転車の技術を含め、グーグル側には問題がなかったわけだが、今回は違う。

 保険業界で長く働き、自動運転車の法的責任の分野の専門家で知られるヒラリー・ローウェン氏はガーディアン紙に対し、今回の事故が、今後、自動運転車をめぐり頻発する難題の好例であるとの考えを示唆。

 そして「今回はソフトが事故を回避できなかったが、人間が乗っている場合、人間が回避できずに事故が起きることもあるだろう。そうなれば、今回の場合、自動運転車に乗っていた人か、バスの運転者か、自動運転ソフトか、どこに過失があったかが分かりにくい」などと問題点を指摘した。

 2月10日付のロイター通信などによると、米運輸省道路交通安全局(NHTSA)は、グーグルの自動運転車が搭載する人工知能(AI)を連邦法上の運転手とみなす方針を明らかにした。

 NHTSAは「過去1世紀以上、必要とされてきた伝統的な意味での『運転手』は、グーグルの自動運転車には不要との主張に同意する」との見解を表明。そのうえで「次の課題は、人間が運転する車に設けた基準を自動運転車が満たせるということをグーグルが証明できるか、また、どのように証明するかである」と明言した。

 今回の事故をみれば、こうした証明ができるのは、まだ時間がかかりそうだ。