自動運転車の安全性
自動運転車の安全性
世界中のカーメーカとサプライヤーに加えて、IT系の各社も参戦して自動運転技術の実現に向けて猛烈に競争を行っている。ここで、自動運転というのはいわゆる自動運転のレベル3以上のシステムをいい、一時的にでもシステムが責任を負うものである。
自動運転の開発過程で悲惨な事故も発生している。なくなった人には、まことに気の毒であるが、新しい技術に基づく新製品が登場した時に、こうした事故が起きてしまうのは昔から常である。開発したエンジニアの想定範囲外の事象が発生するのである。エンジニアは全治全能ではなく、どうしても予見できないことはある。
現代の自動運転の技術の基礎の部分に確率論が使われている。
確率論の意味するところは、ある割合で事故が起こるということである。言い換えれば、事故を起こすことを前提としているシステムになる。
ニュースによると米国で、某メーカの車が自動運転を使用中にトラックの横腹にノーブレーキで突っ込んで乗員がなくなった。
https://business.nikkei.com/atcl/report/15/264450/071500039/
おそらく運転をシステムに任せて自分はべつのことをしていただろうと推定されている。現時点で、システムが一時的にしろ、運転主体になる自動運転はまだ認可されていない。運転者の使い方が悪かったということで結論がついている。
この事故は、システムも人間も見えないほどの逆光の条件下で、道路の車線上にトラックが横向いて道路をふさいでいる可能性を前提として設計されてなかったことが原因と推定できる。これに対応するためには、同様なシーンをシステムに教え込む必要がある。
横向きのトラックは良くなったが、それでは斜めの場合は?形状が違うトラックでは?色は?と心配になるシーンがどんどん増えてしまう。
それに気象条件、世界各国の道路条件などが絡んでくる。組み合わせが膨大になってくる。
そのため、いろいろな条件で、気が遠くなりそうな距離を走って、いろいろなシーンのデータを集め、コンピュータに学習させる必要がある。
データが集まれば集まるほど、事故の確率が少なくなる。そのため各社必死になり膨大な距離の走行試験を行い大量のデータを集めている。
いかにいろんなシーンのデータを集めることが競争の目標になってくるのである。
しかし、いくらたくさん集めても100%大丈夫ということを理論的に言えないのである。
自動運転技術を開発している欧米の特にIT系の会社は人間が運転するより、事故の確率が減れば実用化してよいだろうと言っている。
このコンセプトは、果たして社会的に受容性はあるのだろうか?
たとえば、この自動運転車は、人間が運転するより事故率は低いです。ただし、人間であれば正しく対処できるあるシーンで事故を起こし、運転車が死ぬ可能性があります。
このようなシステムを人間は受け入れることができるであろうか?
そのような事故が発生し、原因が解明され、人間なら容易に事故回避ができたということが分かると世論はどうなるであろうか?
公道を走っている自動運転車(レベル3以上)の車は、今はまだ、実験車のみであり、数が知れているので、大騒ぎになるほどの頻度ではない。
システムが責任を負う自動運転(レベル3~5)に関しては、高速道路に限定しても、完全自動にするとするにはまだまだ時間がかかると考えざるを得ない。
将来どんな道路条件、気象条件でも100%安全な自動運転車が実現できる可能性はあると思うが、当面は、条件が決まった閉鎖空間での実用化にとどめるべきと思う。
安全第一である。