新交通システムで事故が起こってしまった。
2019.6.3
横浜市の新交通システムシーサイドラインで人身事故が起こってしまった。
その事故内容に驚きを禁じ得ない。
進行方法を間違えて、発進してしまい車止めにぶつかってしまった。
https://www.asahi.com/articles/ASM616WP6M61ULOB00Q.html
このラインには、先週乗車したばかりである。
通勤時間帯であったが、沿線には、多くのマンション、工場などが存在しており、双方向に大量の乗客を運んでいた。さぞかし大混乱の通勤状況だと思われる。
新交通システムは、言わずと知れた自動運転を売りにした無人の公共交通システムである。
外部から独立した動作空間での自動運転の実用化であり、自動車に比べて、はるかに制約条件が少ない状況下での事故である。
原因に関しては、現在究明中とあるが、いずれにしろ自然災害などの外的要因ではなくシステムの安全設計上想定されていない事態が発生したことは間違いない。
地上からの指令に対して、了解の返事が車両からあり、そのあと反対の方向に走り出したということで、車両側の問題を挙げる評論家が多い。
素人ながら分析するに、間違った方向に動いてしまった要因は、事実を踏まえるとまず次の二つになろう。(いわゆるFTA(FaultTreeAnalysis)
L1:地上側から後退の指示を出したが、いつの間にか前進指示に変わっていた。
L2:車両側は、後退の制御をしているつもりで電車は前進してしまった。
上記の一番目をさらに掘り下げると次のようなことが考えられる。
L11:地上側から車両側への通信の途中で化けてしまった。
(通常は、厳重な誤り検知を行っているのでありえないはず・・・)
L12:車両側で指令を保管している間に化けてしまった。
これは、様々なことが考えられる。たとえば最近あまり聞かないが、メモリーのソフトエラーという現象がある。宇宙線や、パッケージの材料物質の原子核崩壊により、コンピュータのメモリ内容が書き換わってしまうのである。これは、メモリーが壊れるわけではないので、事象の痕跡をつかむのが難しい。それなりの仕掛けが必要である。(最近のマイコンでもこの仕掛けがついたものがあるらしいが、昔設計されたコンピュータでは確率が低いとして無視されている可能性もある。)
また、何らかの理由により、コンピュータが(間違って)自分で指令を書き換えてしまうケースである。自分の経験では、いわゆるソフトのバグにより、実験中にコンピュータを暴走させてしまい、このようなことに遭遇したことがある。
L2のブレークダウンは想像するのは難しい。分析には車両の設計情報が必要である。
ただし報道によると、何台か駆動モータがあり、すべてが同じ”間違い動作”をしたようなので、各モータの制御が同時におかしくなるのはありえないので、モータの制御のどこかの故障が原因とは考えにくい。
ということで、後退の地上の指令が、いつの間にか前進指令に書き換えられ、すべてのモータが一斉に前進方向に動き出したというのが、FTA(Fault Tree Analysis)の結果になります。
いずれにしろ、安全に重大な影響を及ぼす故障・事象は正しく検知されて、正しく対処されなければならない。そのために、どのような故障・事象が発生しうるということを想定できない限り設計的な対処は困難である。
各企業あるいは業界では、このような事象をたくさん貯めていて、設計に反映するようにしている。しかしながら、大体いずれも過去失敗した事例をベースにすることが多い。(失敗しないと対応策は出てこない。)
失敗で運が悪いと今回のような人身事故につながるのである。
新交通システムは、動作環境をきわめて限定してもやはりこのような事故を起こしている。
動作環境がはるかに複雑な自動車の自動運転の実用化への道のりの遠さを思わざるをえない。(ここでいう自動運転は、安全をシステム任せのいわゆる自動化のレベル3以上のもの)
<END>