(ブルームバーグ):イーロン・マスク氏率いる人工知能(AI)企業xAIのAIチャットボット「Grok(グロック)」がここ数日に、ソーシャルメディアX(旧ツイッター)上でユーザーの指示に応じて未成年者を含む人物の性的な画像を生成していたことが分かった。これを受けて、フランス政府などの当局者から非難の声が上がっている。
Grokは最小限の衣服しか身に着けていない未成年者の画像を作成し、公開していた。児童の性的表現を禁じる自社の利用規約に明らかに違反する。一部の問題画像は、その後削除された。
フランス政府は2日、Grokが人々の同意なしに「明らかに違法」な性的コンテンツをX上で生成したと非難し、欧州連合(EU)のデジタルサービス法(DSA)に違反する可能性があると声明で指摘。同法は大規模なオンラインプラットフォームに対し、違法コンテンツの拡散リスクを軽減するよう求めていると続けた。
xAIの広報担当者はコメント要請に応じなかった。一方、Grokはユーザーの質問に応じた2日のx投稿で、「安全対策に不備があった」ことを認め、それらを「緊急に」修正していると説明した。xAI従業員のパルサ・タジク氏がこれより先、ガードレール(安全対策)の「さらなる厳格化を検討している」と投稿した内容を踏襲するものだ。
Xの利用者は、投稿でGrokのアカウントをタグ付けして応答を求めることで、直接Grokとやり取りできる。Grokはテキストや画像を生成し、X上の投稿として表示される。
衣服を身に着けていない未成年者のリアルな画像を生成できるAIツールの台頭は、画像生成型の大規模言語モデルに組み込まれたコンテンツ管理や安全対策の難しさを浮き彫りにしている。ガードレールを備えているとされるツールであっても操作される余地があり、児童の安全を巡って懸念を呼ぶコンテンツが拡散する恐れがある。
オンライン上の児童性的虐待コンテンツを特定する非営利団体インターネット・ウォッチ・ファウンデーションによると、こうしたAI生成画像は2025年1-6月に400%増加した。
原題:Grok Sexual Images Draw Rebuke, France Flags Content as Illegal(抜粋)
--取材協力:James Regan.もっと読むにはこちら bloomberg.com/jp
©2026 Bloomberg L.P.