致死的自律型兵器システム(LAWS)とは

上述のようにアンソロピックが国防総省からの要請を拒否して堅持した倫理指針とは、自社の製品を致死的自律型兵器システムに利用しないこと、および大規模な市民監視のために利用しないことの二点である。ここでは特にAIに関する倫理的問題の一つとして重要視されてきた「致死的自律型兵器システム(lethal autonomous weapons systems)」(以下、LAWS)に焦点を当てて解説する。

LAWSとは、標的の選定、標的を攻撃するかどうかの意思決定、そして標的に対する致死的な攻撃の実行という攻撃行動の各ステップを、人間のオペレーターによる意味のある制御なしに、自律的に遂行することができる兵器システムのことである。

LAWSについては2010年代からその危険性が指摘され、議論の的になっている。

例えば2012年、人権問題に取り組む国際的なNGO、ヒューマン・ライツ・ウォッチは自律型兵器の危険性、非倫理性を訴える報告書を発表した。

科学技術をより良い未来のために役立てることをミッションとする米国のNGO、フューチャー・オブ・ライフ・インスティテュート(FLI)は人工知能の軍事応用に対して警鐘を鳴らしており、2015年に自律型兵器の開発の禁止を呼びかける公開書簡を発表している。2017年、FLIは「アシロマAI23原則」を発表し、その中でも自律型兵器の開発競争は避けるべきであることを表明している。

政府間レベルの議論としては、2013年にジュネーヴの国連オフィスを中心に自律型兵器に関する問題提起がなされ、2014年以降、特定通常兵器使用禁止制限条約(CCW)の枠組みで議論が継続されてきた。

さらに2017年からはCCWのもとで「LAWSに関する政府専門家会合(GGE)」が開催されている。これまでの議論の一つの総括として出された2019年のGGEの報告書では、「指導原則(the guiding principles)」として、自律型兵器の開発・使用にも国際人道法が完全に適用されること、文民に対するリスクが十分に考慮されるべきこと、開発や使用に関する答責性(accountability)が保証されなければいけないということなどが明記されている。それと同時に「自律的技術の研究開発が、兵器システムに利用できるという理由だけから制限されるべきではない」ということも主張されている。

なお日本は完全自律型の致死的兵器システムの開発は行わない方針を表明しているが、その一方で「人間による有意味な制御」を伴う自律型兵器については「ヒューマンエラーの減少や、省力化・省人化といった安全保障上の意義がある」としている。そのため致死性のない、あるいは人間による有意味な制御を前提とする自律的兵器システムの研究開発については、規制されるべきではないとの立場を採っている。

LAWSに関しては人道上・倫理上の問題点が指摘され、国際的な議論が10年以上続けられてきた。しかし現在に至るまでこれを包括的に規制する国際的な法制度は成立していない。一方で米国、ロシア、中国、イスラエルなどの国々は関連する技術の開発を進めており、近年ウクライナやガザ、イランなどでLAWSに近い自律性の高い兵器が使われたという逸話的な報道も伝えられている。