ここ数日、シリコンバレーで議論を呼んでいる問いは一見単純だ。人工知能(AI)を搭載した自律型兵器が人を殺すことは許されるべきなのか。

実際のところ、かなりの程度まで「すでにそうなっている」というのが答えだ。ペンシルベニア大学教授で元国防総省高官のマイケル・ホロウィッツ氏は「米国は40年にわたり自律型兵器システムを配備してきた」と語る。

例えばレーダー誘導ミサイルは、飛行の大半で人間の関与を排している。「その問題については、ずいぶん前に後戻りできない段階に入っている」と同氏は述べた。

より新しく、はるかに致命的となり得る要因がAIの台頭だ。そして、この技術もすでに一部の戦場で使用されている。

AI開発大手アンソロピックのダリオ・アモデイ最高経営責任者(CEO)は、軍事分野での一定の自律性には肯定的な見解を示している。最近の発表文で同氏は「現在ウクライナで使用されているような部分的自律兵器は、民主主義を守るうえで不可欠だ」と記した。

さらに難しい問題は、致死的な武力行使において、どの段階で人間の関与が必要となるのかという点だ。

アンソロピックと国防総省との最近の対立の中で、アモデイ氏はAIモデルを完全自律型兵器には使用すべきではないと主張した。完全自律型兵器とは、人間の関与なしにAIが標的を選定し、攻撃を実行する兵器を指す。

アモデイ氏と同様の立場をとる人々は、現在のシステムは、ロシア軍の戦車を識別して攻撃に移るといった段階には達していないと主張している。また、こうしたAIシステムが地上で戦闘員と非戦闘員を識別するような難しい任務を担うべきではないとも訴えている。

国防総省のAI開発計画を率いた退役中将のジャック・シャナハン氏は、アンソロピックの立場への支持を表明している。同氏は最近、「現在のいかなるLLMも、完全に致死的な自律型兵器システムへの使用を検討すべきではない」と記した。LLMは、アンソロピックの「Claude」などのAIツールを支える大規模言語モデルを指す。

「過熱する期待とは裏腹に、最先端モデルでさえ国家安全保障の現場で本格運用できる段階にはない。現時点で過度に依存すれば、破局を招きかねない」と同氏は述べた。

ブルームバーグ・ニュースのカトリーナ・マンソン記者は、自律型システムにAIを用いることへの主要な懸念の一つは、戦闘員と民間人を識別できない兵器を生み出す可能性や、降伏を見落とし、その結果として国際法違反を招きかねない点にあると指摘する。

この議論は重大な意味を持つ。自律型兵器システムを手がけるアンドゥリルの創業者パルマー・ラッキー氏は、戦場で通信が途絶えた場合に備え、AIと自律性は不可欠だと主張している。同氏は最近のインタビューで、「ロボットに標的の判断をさせないのなら、相手は信号を妨害するだけで阻止できてしまう」と語った。

ラッキー氏は、戦争の未来を担うのは自律型ドローンだとの見方を示す。また過度な制限、とりわけ民間企業による自主的な制限は、西側民主主義陣営の軍事力を弱体化させると警鐘を鳴らす。

もちろん、自律型兵器の行き着く先には、より暗い未来像もある。

アモデイ氏は1月の論考で、自律性や監視を巡る安全策の在り方など、アンソロピックが国防総省と交わしている議論の一端を示唆していた。具体的には、「数百万、あるいは数十億規模の完全自動化された武装ドローン」が、「世界のいかなる軍隊も打ち負かし得ると同時に、すべての市民を追跡して国内の反対意見を抑え込むことができる状態」を生み出しかねないと懸念を示した。

国防総省とアンソロピックの間で行われている議論は、未来のAIの方向性を左右する可能性がある。ただ、この議論は複雑で、シリコンバレーの多くはまだ戸惑っている。

ホロウィッツ氏は「AIに携わる人々が今になって理解しつつあるのは、現代の戦争において自律性がいかに進んでいるかという点だ」と指摘。「大半の人は、自分たちが開発している技術が軍事力にとって不可欠になるとは想像もしていなかった」と述べた。

原題:Anthropic Dispute Sparks Debate on Killer AI: Tech In Depth(抜粋)

もっと読むにはこちら bloomberg.com/jp

©2026 Bloomberg L.P.