プラットフォーム側の設計対応

利用者個人のセルフ・ガバナンスには限界があり、推薦システムの最適化は、個々の利用者が完全に達成できるものではない。

したがって推薦・ランキング等の設計主体であるプラットフォーム側においては、エンゲージメント指標を中心に据えた最適化を緩めつつ、ウェルビーイング資源を守る観点を取り入れることが重要となる。以下では、考えられる対応策を4点提示する。

(1)セレンディピティと多様性をデフォルトとして組み込む

ここでいうセレンディピティとは、利用者の現在の関心にぴったり合う情報だけでなく、関心の周縁にある有益な情報や異なる視点にも、推薦の中で偶発的に出会える状態をすることを指す。

多様な情報(動画)に触れられる機能を実装しても、それが「見たい人だけが選ぶオプション」だと、同質的環境にとどまりがちな利用者ほど選択しにくく、結果として多様性は確保されにくい。

そもそも利用者の関心はデフォルトの推薦機能によって形成されることもある。このため、利用者任せにすると、結果的に同質性が固定化しやすい。そこで、推薦・ランキングの設計においては、次のような「弱い多様性注入」を既定値として組み込むことが考えられる。

①同一トピック内の多視点提示
同じニュースでも解釈・論点の異なる解説を並置する。ただし、対立を煽るのではなく、争点構造を可視化する。

②探索(試し見)枠の確保
推薦枠の一部を、利用者の関心を広げるための「探索(試し見)枠」として、過去の視聴行動と距離のある情報に割り当てる。ただし、関心の隣接領域から入れることを意識する。

③「橋渡しコンテンツ」を優遇する
相互理解に資する説明、背景、一次データ、用語定義など、対立の前提を整理するコンテンツを評価する。

これらは、利用者の現在の選好に完全一致する情報だけで推薦を埋め尽くすのではなく、関心の周縁にある有益な情報との偶発的な出会い(セレンディピティ)を、推薦の既定値として確保するための設計である。

ここで重要なのは、目的を「反対意見を見せる」ことに置かないことである。反対意見は時に防衛反応を強め、怒りの材料にもなる。

狙いは、異論を投入することではなく、「異なる意見を言う相手が何を前提にそう言うのかが分かる状態」をつくることである。

そのためには、①で述べたように同一トピック内で多視点を提示し、③のように対立が生じやすいテーマについて争点構造の可視化や背景・一次データ・用語定義など対立の前提を整理する「橋渡しコンテンツ」を推薦上で優遇することが有効である。

ウェルビーイングの観点からは、対立構造を無くす設計よりも、対立があっても対話可能性が失われないような環境を整えることに意味がある。

ただし、こうした「新しい視点との出会い」がなぜ起きたのかは利用者に見えにくい。したがって次項では、推薦理由を理解可能にする仕組み(説明可能性)について扱う。

(2)説明可能性(Why this)を強化する

フィルターバブルの厄介さは、推薦機能による情報の偏りが徐々に形成され、本人が気づきにくい点にある。したがって、推薦・ランキングの「説明可能性」を高めることは、利用者のメタ認知(自分が何に影響されているかを把握する力)を補助することになるだろう。

たとえば、「なぜこれが表示されたのか(Why this)」を、理解できる粒度で示す(例:直近の閲覧テーマ、フォロー関係、居住地域、人気度等の寄与)ことが考えられる。

さらに、推薦は利用者の過去のクリック・視聴といった行動ログを学習して作られるが、これが「一度見ただけ」「誤って見た」「関心が変わった」等の理由で現在の関心を正しく反映しないこともある。

そこで、推定された興味の根拠を利用者自身が修正(興味なしの指定、学習のリセット等)できるようにする。利用者のウェルビーイングを守る観点では、「透明性」それ自体よりも、偏りの自己点検が可能になることが重要となる。

(3)利用者が実際にコントロールできる環境にする(選べる状態ではなく、選びやすい状態)

利用者が個々に表示基準(おすすめ/時系列等)を選べる機能が実装されていたとしても、その切り替え動線が分かりにくく、操作に手間がかかるのであれば、実際に機能しているとはいえない。

そこで、利用者コントロールは「選べる」ではなく「選びやすい」設計へ移す必要があると考える。

たとえば、モード選択で「おすすめ(パーソナライズ)」「時系列」「編集方針に基づく一般ランキング」など、複数モードをワンタップで切り替えられるようにする設計や、パーソナライズのリセット/調整機能を実装し、興味推定の消去、一定期間の学習停止等を、少ない手順で分かりやすく操作できるようにする等が考えられる。

(4)ウェルビーイング指標を「安全・品質」の一部として取り入れる

最後に、プラットフォーム側が利用者にコンテンツを推奨する際に、ウェルビーイングの観点を取り入れることも考えられる。

現状のエンゲージメント指標(滞在時間、クリック率、共有数等)は、怒り・嘲笑のような強い刺激と相性がよく、William J. Brady et al.(2017,2021)が示すように道徳感情や憤りの拡散を後押しする恐れがある。

そこで、例えば「短期反応」だけではなく「事後評価」を取り入れたり(具体的には、直後のクリックではなく、一定時間後の「役に立った」「理解が深まった」「後悔が少ない」等の指標を組み合わせるなど)、同質性の強まり、政治的・社会的話題における敵意言語の比率、誤情報に触れた利用者のうち正しい情報まで見た人の割合等、ウェルビーイングに関係する副作用指標を安全管理の一部としてモニタリングする等の対応が考えられる。

事後評価については、全利用者から恒常的に回収するのは現実的でないため、表示頻度を抑えつつ、利用者をランダムに抽出して、アプリ内で数秒で回答できる短時間アンケート(マイクロサーベイ)として回収し、回答負担を最小化したうえで推薦モデルに反映する設計などが考えられる。

安全・品質管理の枠組みの中で、上記のような複数の「ウェルビーイングを害する兆候」を監視し、改善サイクルを回すことで、設計上のウェルビーイングへの負の影響を着実に減らしていくことは可能なのではないか。

近年、プラットフォーム各社では、安全・品質の観点を取り入れ、エンゲージメント指標を中心に据えた最適化を一定程度緩めようとする取組みが進みつつある。

とりわけEUでは、デジタルサービス法(DSA)により、推薦システムの主要パラメータの説明(なぜそれが提示されるのか等)や、閲覧履歴等の個人データに基づかない推薦(非パーソナライズ)オプションの提供が制度として求められており、利用者は時系列等のアルゴリズム推薦以外の基準を選べる方向で環境整備が進んでいる。

ただし、これらの取組みがどの程度実効的に機能しているか、また事業者のコミットメントが十分かは一様ではなく、今後も継続的な検証が必要である。