AIが作り出す「無知」の空間

近年新たに注目されているのが、AIやSNSを通じたフェイクニュースや陰謀論の生成と拡散である。デジタル画像分析の専門家ハニー・ファリードは、AIの機能を「予測」と「生成」の二つに分けて、それらが「無知」を生み出し増幅する仕組みを論じている (注1)。

予測AIとは、私たちが「見たい」ものを予測する技術である。それはネット上での私たちの行動や属性をもとに、私たちの検索画面やタイムラインに何を表示し、何を表示しないかを決めている。

とはいえそのアルゴリズムは、あくまで私たちのエンゲージメント(滞在時間やクリック数)を最大化し、プラットフォーム企業が広告収益を上げるために設計されている。そのため、情報が正しいかどうかよりも、ユーザーのアテンション(注意・関心)を得られるかどうかが決め手となる。

その結果、SNS上では特に感情を刺激するようなコンテンツが拡散されやすくなる。フェイクニュースや陰謀論は、そのようなコンテンツの代表格だ。

また、私たちの「フォロー」や「いいね!」によって情報が個別最適化されるため、エコーチェンバー(同じ意見のみが反響する空間)やフィルターバブル(異論が見えにくくなる状態)といった情報的孤立も生じやすい。私たちはタイムラインで自分と似た意見にばかり囲まれ、異なる視点に触れにくくなる。一度間違った情報を信じると、間違いに気づくことが難しくなるのだ。

一方、生成AIとは既存のデータから新たなコンテンツ(音声、画像、動画など)を生み出す技術である。特に問題となるのが、本物そっくりに作られた「ディープフェイク」だ。これは新たな創造の可能性をひらく一方で、フェイクポルノやなりすまし詐欺などの犯罪や、世論を操作するための偽情報キャンペーンなどに利用されやすい。

さらにディープフェイクが普及すると、音声や画像や動画などが持つ証拠としての力が弱まることも懸念されている。不都合な証拠を「フェイクだ」と否認しやすくなり、嘘をつくことが得となる「嘘つきの配当」と呼ばれる状況が生まれかねない。

さらにディープフェイクをもとに新たなコンテンツが生成され続けると、私たちのタイムラインは本物そっくりの虚構で埋め尽くされることになり、何が真実かの見分けがつかなくなっていく。