ソフトウエアエンジニアのクリス・ボイド氏は1月末、オープンソースの人工知能(AI)エージェント「OpenClaw(オープンクロー)」を使い始めた。ニュースの要約を作成し、毎朝5時30分に自身の受信箱へ送るためだ。

しかし、iMessageへのアクセスを許可したところ、OpenClawは想定外の挙動を示し、暴走するようになったという。本人と妻に500通を超えるメッセージを送りつけたほか、無作為の連絡先にもスパムを送信した。

ボイド氏は「場当たり的につなぎ合わせられ、未完成のまま、あまりに早く公開された初歩的なソフトウエアだ」と批判。リスクを抑えるため、OpenClawのコードを修正し、独自のセキュリティ対策を施したという。「不具合があるのではない。危険だと気づいた」と述べた。

昨年11月の登場以降、OpenClawは熱心な支持を集めてきた。自律的に動作し、メール受信箱の整理や飲食店の予約、航空機の搭乗手続きなどを担う点が評価された。一方、複数の専門家は、同ツールのセキュリティーは不十分だと指摘し、利用には重大かつ未知のリスクが伴うと主張している。

AIセキュリティーを手掛ける企業ヒドゥンレイヤーの研究者、カシミール・シュルツ氏はOpenClawについて、AIのリスクを測る基準とされる「致命的な三要素」の全てを満たしている点で、とりわけ危険性が高いと指摘する。

同氏は「AIが個人データにアクセスできる場合、それは潜在的なリスクとなる。外部と通信できる能力があっても同様だ。さらに、信頼できないコンテンツにさらされている、あるいは接触する可能性がある場合、それが『致命的な三要素』の最後の要素になる」と語った。

ウィリアム・アンド・メアリー大学のユエ・シャオ助教授(コンピューターサイエンス)によれば、悪意ある命令を正規の指示に見せかける「プロンプトインジェクション」などの手法を使えば、OpenClawを通じて個人データを比較的容易に盗み出せるという。

一方、OpenClawの開発者であるピーター・スタインバーガー氏はブルームバーグ・ニュースに対し、同AIツールやそのセキュリティーは現在も開発途上にあると説明。同氏は電子メールで「まだ完成しているとは言えないが、着実に前進している」と述べた。

大手テクノロジー企業の多くが、AIエージェントの開発や活用拡大を急いでいる。米アンソロピックの「Claude Code(クロードコード)」は、投入からわずか6カ月で年換算売上高が10億ドルに達した。

しかし、サイバーセキュリティーの専門家は、新しいAIアプリケーションにはリスクがつきものだと語る。技術があまりに新しいため、潜在的な危険性を理解するのに必要な情報や経験が十分に蓄積されていない場合があるという。

ニューヨーク大学のジャスティン・キャポス教授(コンピューターサイエンス)は、AIエージェントが「なぜそのような行動を取るのか、われわれにはまだ分かっていない」と指摘。「システム上の機能へのアクセスを与えることは、幼児に肉切り包丁を持たせるようなものだ」と警鐘を鳴らした。

原題:OpenClaw User Says AI Went Rogue, Highlighting Risks of Agents(抜粋)

もっと読むにはこちら bloomberg.com/jp

©2026 Bloomberg L.P.