2026年1月26日、欧州委員会はX(旧ツイッター社)の人工知能ツールであるGrokについて新たにデジタルサービス法(Digital Services Act、以下「DSA」)上の公式調査を開始したと発表した。

これはXがGrok機能を配備したことに関連して、たとえば極めて深刻な人権侵害である児童の虐待画像を含む、加工・生成された性的画像などの違法コンテンツの拡散といった事案が発生している。

このような事案を生じさせるようなリスクをXが適切に評価し、かつ軽減する措置をとっていたかどうかを調査するものである。

これらのリスクは現実化しており、EU市民に深刻な被害を及ぼしているとの認識を示している。この点を踏まえ、委員会はXが以下のDSA上の義務を遵守しているかどうかについてさらに審査を行う予定とされる。

・システミックリスクを慎重に評価・軽減しているか。このリスクにはGrokの配備に起因する、違法コンテンツの拡散、性別に基づく暴力に関連するネガティブな効果、心身の健康に対する深刻な否定的影響が含まれる。
・Grokの配備以前に、Grokの機能がXのリスク特性(プロファイル)に対して重要な影響を及ぼすことに関するリスク評価を実施し、その適時報告をしていたか。

また、欧州委員会はこれと並行して、2023年12月に開始したXの推奨システムに関しても適切にシステミックリスクに関して評価し、軽減措置をとっていたかの調査を延長する。この推奨システムは近時、Grokベースの推奨システムに変更されている。

これらはもし証明されれば、DSA34条1項・2項、35条1項、42条2項違反を構成するとしている。各条文の概要は以下の通りである。

34条1項:特に大きなオンラインプラットフォーム等は、指定後、一年に最低一回は重要なシステミックリスクを特定、分析、評価しなければならない。
34条2項:特に大きなオンラインプラットフォーム等の提供者は、特に、以下の要因がシステミックリスクのいずれかに影響を及ぼすか否か及びどのように影響するかを考慮しなければならない。
(a)推奨システムおよびその他の関連するアルゴリズムシステムの設計(以下略)
35条1項:特に大きなオンラインプラットフォーム等は、第34条に従って特定された特定のシステムリスクに合わせて、そのような措置が基本的権利に与える影響を特に考慮しながら、合理的で比例的かつ効果的な緩和措置を講じなければならない。
42条2項:特に大きなオンラインプラットフォーム等の情報公開義務(詳細省略)

ここでいうシステミックリスクとは、プラットフォーム上での違法・有害なコンテンツが広く拡散されるリスクを言う。

DSAによって、特に大きなオンラインプラットフォーム等においては、このようなリスクの顕在化を防止するため、リスクを特定・分析・評価し、合理的な緩和措置を取らなければならない。

このような規定は日本における類似の法律である情報流通プラットフォーム対処法(以下、「対処法」)には存在しない。

対処法とDSAが共通するのは、プラットフォーム提供者は権利侵害物(≒違法なコンテンツ)がプラットフォーム上に掲載されていることを知らない限りは責任を負わないとするものである。

逆から言うと権利侵害物の存在を認知した後においては、迅速に対応しなければ責任を負うこととなる。ここは共通している。

それでは権利侵害物を認知しない限り、何もする必要がないのかという問題意識に応えるのがDSAの34条、35条である。

上述の通り、特に大きなオンラインプラットフォーム等においてはシステミックリスクを想定し、対処策を立てることとされている。対処法には類似の規定がない。

この点を考慮するための参考事例としてMetaの事例がある。

Metaは、日本において自社プラットフォームに掲載される投資詐欺広告が規制当局に検知されないような対策を行ってきており、その手法を海外展開したとの報道がなされている。

仮にこのような行為を意図的にやっていたことが事実だとすれば、業務運営として著しく不適当であると同時に、権利侵害物を認識していたと思われ、そうだとすると対処法上の責任が生じてくるものと思われる。

しかし、DSA34条、35条と同等の規制が日本にもあれば現状よりも早期に抑止できた可能性がある。

類似事例の事前予防という意味でもDSA34条、35条相当規定の導入を今後、制度設計上の検討課題として位置づける必要がある。

※情報提供、記事執筆:ニッセイ基礎研究所 保険研究部 研究理事 兼 ヘルスケアリサーチセンター長 松澤登
※なお、記事内の「注釈」に関わる文面は、掲載の都合上あらかじめ削除させていただいております。ご了承ください。