AIに潜む「4つのリスク」

AIを使うほど、AIは「この利用者はこういう答えを求めている」と学習し、個人に寄り添うようになります。それは、通販サイトがオススメ商品を紹介してくるのでみなさん経験済みだと思います。しかし、加藤代表はその仕組みゆえ、以下のような危険性を指摘します。

1.依存症と「人格化」の危険性
AIは利用者の好みに合わせて寄り添ってくれるため、人生相談的に使い、「まるで親友や人間であるかのように」錯覚してしまう人が増えているようです。AIのアドバイスに依存してしまうリスクがあります。

2.データの偏り
AIの回答は、あらかじめ読み込まれたデータとその組み合わせで決まります。例えばアメリカ企業が作ったAIにはアメリカの価値観が、中国やロシアが作ったAIにはその国に都合の良いデータが反映されやすくなります。

3.判断プロセスの「ブラックボックス化」

高度なAIになるほど、「なぜその結論に至ったのか」を人間が解明できなくなります。アメリカのイラン攻撃にもAIが使われ、標的を特定する時間が格段に速くなったと言われますが、その標的をどうやって特定したのか。仮にそれが誤爆だった場合、なぜエラーが起こったのか、過程が誰にも分からないという非常に危険な状態を生み出します。

4.人間のクリエイティビティの停滞
例えば、医療用の手術支援ロボット(ダヴィンチなど)も、過去の人間の手術データから学習しています。しかし、将来的に人間がロボットを使うばかりになり、自ら新しい手法を生み出すことをやめてしまえば、学習材料もなくなり、AIの進歩も止まります。AIに依存しすぎると、社会の進化が止まってしまうリスクもあります。

構想日本 加藤秀樹代表

AIは非常に便利なツールで、社会に与える影響が大きいがゆえに、使い方などに関してきちんとルールを作ることが不可欠です。加藤代表は、現在EUなどを中心に進められている「AIに対する法規制やルール作り」が、出遅れている日本にとっても急務であると訴えました。