image130

先日、一部メディアがアメリカ空軍が行ったAI搭載ドローンがそのオペレータが任務を妨害しているとして殺害する判断をしたなどとよくわからない内容を報じていたことについて、この話は完全に捏造されたものだということが明らかになりました。

この奇妙な話はイギリス王立航空協会が主催した「Future Combat Air & Space Capabilities Summit(将来の戦闘航空宇宙能力サミット)」でアメリカ空軍のAI試験運用部長であるタッカー・ハミルトン大佐のスピーチが元になっています。

История про ИИ убивший оператора оказалась фейком
https://vsluh.net/1904-istorija-pro-ii-ubivshij-operatora-okazalas-fejkom.html

彼の話としては、人工知能を搭載した無人攻撃機が任務への干渉を防ぐためどの用にしてこの無人機のオペレータを殺害したのか語ったものでした。具体的な内容としてはあくまでシミュレーションとして「人工知能はターゲットを認識し破壊しようとしたが、攻撃の最終判断を行うオペレーターが破壊しないように指示することがある。そこでAIは妨害したオペレーターを殺害すれば認識したターゲットを破壊できると考えた。そこでAIはオペレーターを殺害する判断をした」というものです。

その上でハミルトン大佐は結論として重要なタスクについてAIに依存すべきではないと結論付けた、としています。

米軍「シミュレーション自体していない」

明らかに違和感のあるAIシミュレーションなのですが、これに関して米軍公式にハミルトン大佐が主張したシミュレーションは一切行ったことがないと反論しました。

合わせてハミルトン大佐は一連の『非協力的なAIの物語』は現実世界でのテストではなく、理論的概念に基づいた「思考実験」であると主張したといいます。「私たちはこの実験を行ったことはありませんし、起こり得る結果を想像するために行う必要もありませんでした。これは仮説的な例ですが、AI ベースのテクノロジーで私たちが直面する実際の問題を示しています」とのこと。

ただこの内容についても疑問があり、本当に米軍が実験を行わなかったのかは判断することができず、このAIがオペレーターを邪魔者として殺害したというシミュレーション試験は実際に行われていた可能性もゼロではありません。要するに、騒動が大きくなったため火消しに入ったことも考えられます。


実際のところ友軍を攻撃するというのはAIに限らず人でも発生することでありAI脅威論というのは誇張されすぎている可能性があります。その背景にあるのはAIをとりあえず暴走させて話を盛るSF映画といった作り話にも理由があると考えられます。

今回のよくわからない試験についてはAIがそこまでの思考をできるという、あたかも人間のような判断を行ってしまっていることにも疑問があります。もちろんAIは所詮人間が作ったプログラムで上でのみ運用できるものです。つまり友軍側の判断が何よりも最優先されるという命令文を一つ入れるだけで兵士よりも高い信頼性と忠実性は得られるということになります。