(ブルームバーグ):インドで2月に開催された人工知能(AI)の国際会議「AIインパクトサミット」は、ここ数年のこうした会合が決まって迎える結末と同じ形で幕を閉じた。
今回は「ニューデリー宣言」で締めくくられたが、この宣言は、協力をうたい、「AIは人類に奉仕し得る」との希望を盛り込んだ拘束力のない賛歌に過ぎない。数十カ国や国際機関が、何一つ変えることなく署名できてしまう類いの空疎な文言だ。
最も示唆に富む発言は業界側から出た。宣言が公表される数時間前、対話型AI「ChatGPT」を展開する米OpenAIのサム・アルトマン最高経営責任者(CEO)はインド紙インディアン・エクスプレスとのインタビューで、ある種のモラルに関わる算術を披露した。
「AIモデルの訓練にどれだけのエネルギーが必要かという話がよく出る」が、「人間を育てるのにも多くのエネルギーがかかる。賢くなるまでに20年ほどの人生と、その間に食べる全ての食事が必要になる」と述べた。
ジョークのつもりだったのかもしれない。しかしその発言が意味するところは、AI競争を主導する人々が、育児と機械の訓練を同列に語り始めているということだ。人間中心のAIはどこへ行ったのか。
今回のAIサミットは、インドやブラジル、カナダといった中堅国にとって転機となるはずだった。だが実際には、世界のAIガバナンス(統治)を特徴付ける手詰まり感を浮き彫りにした。
超大国は本気で自制しようとはせず、企業も自発的にペースダウンする気はない。他の国々は取り残されることへの恐れに突き動かされながら、中身のない声明に署名している。
迷走ぶりは会合の名称にも表れている。2023年に英ブレッチリーパークで開かれた最初の集まりは「AIセーフティーサミット」と銘打たれた。
その後、ソウルでは「AIサミット」となり、名称からセーフティー(安全性)が外れた。パリでは「アクション」、ニューデリーでは「インパクト」へとテーマが変わった。インドは今回、最先端企業にAIの影響を研究する広範な約束に署名させたが、これも任意にとどまる。
地政学的競争
一方で中堅国は、米国と中国が主導権を握るのを待っていられない。今年だけで、米国のテクノロジー大手はAIに総額約6500億ドル(約101兆円)を投じる見通しだ。
天文学的な支出はAIの導入を加速させるが、安全よりも投資回収を優先する方向へと動機をゆがめる。テクノロジーブームが米経済の大半をけん引しており、ホワイトハウスは景気減速につながりかねない規制を設ける意欲に乏しい。
中国にも安全性を巡る独自の研究所や企業による自主的な取り組みはある。しかし、リスクに関する意見の幅や公的な議論の余地は極めて限られている。
とりわけ、習近平国家主席がテクノロジー分野で世界を主導するとの野心と衝突するような場合はなおさらだ。信頼に足る安全面でのリーダーシップがワシントンから生まれることは期待しにくく、北京から出てくる可能性も低い。
同時に、被害はすでに広がっている。女性や少女がデジタル上で衣服を剝がされ、サイバーハッカーは新たなツールを大規模に悪用する。チャットボットの利用と10代の自殺を結び付ける報告もある。
AIシステムは指数関数的に強力になりつつあり、エージェントと呼ばれる自律型コンピューターシステムを巡る競争は、人間がさらに多くの権限を機械に委ねることを促す。より存在論的なリスクへの懸念も高まっている。
この地政学的競争の中で、米国と中国が安全分野で有意義に協力するとの期待はますます幻想に近づいている。世界経済フォーラム(WEF)年次総会(ダボス会議)でも示唆されたように、米中は相手の加速を口実に、減速したくてもできないと主張できる。
人々の結束
だからこそ、中堅国の重要性はかつてなく高まっている。インドは今年のAIサミットを主催するに当たり、米中対立とその他の世界との橋渡し役として自らを位置付けることを明確に掲げた。
安全を巡る関連イベントで、コンピューター科学者でAIの「ゴッドファーザー」とも呼ばれるヨシュア・ベンジオ氏は、AIが権力を一層集中させてしまう前に、超大国の膠着(こうちゃく)を打破するため、各国政府が結束する必要があると述べた。
ベンジオ氏は、「テーブルに着いていなければ、メニューに載る側になる」というダボス会議でカナダのカーニー首相が述べた言葉を引用し、こうした行動喚起は通商や安全保障だけでなく、AIにも必要だと訴えた。
AIで先を行こうと米国や中国に取り入ろうとするのは、自立ではなく依存を固定化する自滅的な戦略であり、安全にもつながらない。
中堅国の連帯は、最先端AIで米国や中国に打ち勝つ必要はない。数十億人規模の市場へのアクセスや学校・病院・裁判所・電力網といったインフラの利用を、測定可能な安全上のコミットメントに条件付けるだけでよい。
まずは、当面の基本から始めればいい。AIツールに用いられるデータの開示や、モデルの学習・運用に必要なエネルギー使用量の公表を義務付けることだ。
警察や政治などセンシティブな分野での導入前には、標準化され独立性が担保された安全評価を義務化し、インシデント報告とモデルの失敗やリスクに関する公的な透明性を徹底させる。
ベンジオ氏は、政治家や当局者にとって今最も容易なのは、自分たちを心地よくさせる声、あるいは大半がテクノロジーを売り込む側の声に耳を傾けることだと警告した。
ただ、そうした動きに対する反発は組織化され、拡大している。アイデンティティーや政治的立場を超えて人々が結び付きつつある。「政府は一般の人々が目を覚ますまで何もしない」とベンジオ氏は述べた。
ニューデリー名物の交通渋滞はグローバルなAI安全論争の思わぬ比喩となった。会議は重ねられ、誰もが先を急ぐが、一向に前に進まない。人々を守るのは宣言ではない。ルールだ。
(キャサリン・トーベック氏はアジアのテクノロジー分野を担当するブルームバーグ・オピニオンのコラムニストです。CNNとABCニュースの記者としてもテクノロジーを担当しました。このコラムの内容は個人の意見で、必ずしも編集部やブルームバーグ・エル・ピー、オーナーらの意見を反映するものではありません)
原題:The AI Safety Deadlock Needs a Third Way: Catherine Thorbecke(抜粋)
もっと読むにはこちら bloomberg.com/jp
©2026 Bloomberg L.P.