image_15

人の手を借りずに自動で運転する自動運転技術が注目されていますが、仮にこの車が交通事故を起こしたとした場合、車はドライバーと歩行者どちらの命を救うようシステムが動作するのでしょうか。この問題に関して海外の自動車専門誌が気になる回答をしているとのことです。

AIが人間に代わって運転を代行する自動運転車の開発者の間では今、アシモフのロボット3原則にも似た、哲学的な論争が続いている。それは「AIが乗員か歩行者か一方の生命しか守れない状況となった場合にどちらを選択する?」というものとなる。

BusinessNewsline
AI、人工知能が搭載された高度な自動運転技術を搭載した自動車の場合であっても交通事故を完全に防ぐことは不可能です。では仮に歩行者とドライバーの命、どちらかが確実に失われるという事態に遭遇したとき人工知能はどのような判断を下すのでしょうか。

自動車専門誌「Auto Express」のインタビューに答えたメルセデス・ベンツによると、そのような事態に遭遇した場合、死亡するのは歩行者側で乗員の命を第一に考えるようプログラムされているとしています。


記事によると自動運転の人工知能はロボット三原則のように言い換えた場合「第一法則(最優先事項):乗員であっても歩行者であっても、死亡事故が発生しないように回避策を講じる」としその上で「第二法則:乗員か歩行者のどちらか救うことができるという状況が発生した場合、自動車の乗員を救う」という判断になるとしています。

なぜこのようなプログラムになっているのか具体的に明らかになっていないのですが、メルセデス・ベンツによると仮に第二法則が適用される事故はAIでも人間でも物理的に対応できない事故としています。ただし、このような事故は第一法則を適切に講じることで99%解決することができるとしており、第二法則までステージが進んだとしても「(人工知能は)平均的なドライバーよりも状況は遥かに改善されることになるだろう」としています。

自動運転技術と死亡事故に関してはテスラ・モーターズの例から見ても非常に複雑な可能性が高く、責任は車側にあるのかそれともドライバー側にあるのかということに関して普及とともに今後必ず問題が発生するものと考えられます。