アメリカでは「差別につながる可能性がある」との批判も

一方アメリカでは、犯罪予測にとどまらず、過去に発生した犯罪への対応にもAIを活用する動きが積極的に進められてきた。その代表例が、音響センサー型の銃声検出システム「ショットスポッター(ShotSpotter)」である。

街灯や公共施設、集合住宅などに設置されたセンサーが異常音を検知すると、まず専門スタッフが音声データを確認し、それが実際に銃声であるかどうかを判断する。銃撃と判定された場合にのみアラートが送信され、発生から約60秒以内に場所が特定され、警察官が30~45秒ほどで現場に到着できる仕組みとなっている。誤検知を抑えつつ迅速な初動対応が可能になるとして、ショットスポッターは注目を集めてきた。

しかし、このシステムは同時に深刻な批判にもさらされてきた。とりわけ象徴的なのが、シカゴで提起された集団訴訟である。

訴訟を主導したマッカーサー・ジャスティス・センターは、ショットスポッターについて、不透明な運用、不十分な精度、誤用、高額な財政負担という四つの問題を指摘した。なかでも問題視されたのは、センサーが主にマイノリティ住民の多い地域に集中的に配備され、その結果、警察の介入が特定の地域や人々に偏っていたという点である。

原告側によれば、わずか6か月の間に、少なくとも82人の市民に対して、ショットスポッターのアラートをきっかけとする有形力の行使が行われたとされ、その多くは非武装のアフリカ系アメリカ人男性やヒスパニック系男性であったという。

最終的にシカゴ市はショットスポッターとの契約を解除し、2024年9月に運用を停止した。訴訟自体も2025年8月に和解が成立している。

この一連の経緯は、予測や検知を担う技術が、十分な透明性や説明責任を欠いたまま導入されると、差別や偏見といった深刻な歪みをもたらし得ることを示している。