自分の下着姿などをスマートフォンで撮って他人に送ってしまう。そんな被害に遭ってしまう子どもが少なくありません。こうした被害を防ぐためAIを使ったアプリが登場しました。

愛知で被害にあった子どもは去年92人


(中学生の娘を持つ母親)
「不安です。事件とかも多いので…(娘のスマホを)見える範囲では見ていくけれど、プライバシーもあるし…どこまで見ていいのか」


スマホがきっかけで、子どもが事件に巻き込まれるケースが増えています。

愛知県では去年1年間で、児童ポルノ関連の被害にあった子どもは92人。10年前のおよそ4倍の数です。


このうち4割ほどが自分で撮った画像=「自撮り」に関連した被害です。相手にだまされたり脅されたりして、裸や下着姿などを自撮りして送ってしまう事件が相次いでいるのです。


こうした被害を防ぐためのアプリが、3月末から利用できるようになりました。その名も「コドマモ」。

保護者に“画像を撮影したこと”を通知


使い方はこうです。保護者のスマホに「コドマモ」をインストール。一方、子どものスマホには「コドマモforKids」をインストールします。

子どもが自分のスマホで裸や下着姿などのわいせつな画像を撮影すると、AIが自動検知します。そして、子どもには画像の削除を促し、保護者には、画像を撮影したことが通知されます。

また、スマホの位置情報も共有できるため、保護者は子どもの居場所を確認することもできます。


(中学生の娘を持つ母親)
「へぇ~、そういうのがあると安心しますよね。すごいですね。そんなのあるんですね」

(中高生の娘を持つ母親)
「ありがたいですよね、こういうのがあると。子どもだけで管理するとなると、何をされるかわからないから、親が見られるというのはすごく助かります」