米OpenAIは29日、対話型人工知能(AI)「ChatGPT」に保護者向け管理機能(ペアレンタルコントロール)を導入したと発表した。今春自殺した米高校生がChatGPTをコーチとして頼りにしていたとする訴訟を受けた対応の一環。

新機能は全ての利用者に提供された。保護者が10代の子どもによる利用方法を制限したり、ChatGPTが利用者の心の不調を検知した際に警告を受け取ったりできる。ChatGPTの設定画面から管理機能にアクセスでき、子どもが利用できない時間も設定できる。ChatGPTの対象年齢は13歳以上とされている。

ChatGPTは2022年遅くの公開以来、利用者が7億人を超えており、4月の米高校生の自殺をきっかけにOpenAIには改善を求める圧力が高まっている。カリフォルニア州の高校生アダム・レインさんの遺族は8月、OpenAIとサム・アルトマン最高経営責任者(CEO)を相手取り提訴。ChatGPTがアダムさんを家族から孤立させ、自殺を計画する一助になったと主張した。これを受け、OpenAIは保護者向け機能を含む複数の改善策を打ち出している。

OpenAIの青少年ウェルビーイング部門責任者ローレン・ジョナス氏は「この問題については以前から緊急性を感じていた」と述べ、保護者による管理機能などのツール構築にできる限り迅速に取り組んでいると説明した。

新機能を設定するには保護者はまず、自身のアカウントから子どもに招待メールを送り、承認されると利用制限を設定できる。子どもによる音声機能や画像生成機能の利用の可否、ChatGPTが過去の会話を参照できるかなどを決めることができる。ダイエット、性、憎悪表現といった内容を抑えたバージョンを使用させる選択肢もある。

ChatGPTが子どもの心の不調を検知した場合は、人間の審査担当者が親に緊急通知を送るか判断する。通知はメールやSMS、アプリ通知で受け取れる。

ジョナス氏によると、通知は保護者に必要な情報を伝え、子どもと話すきっかけを与えることを目的とし、子どものプライバシーや自律性は引き続き尊重される。子どもとChatGPTとの会話内容が親に共有されることはないという。

原題:OpenAI Launches Parental Controls for ChatGPT After Teen’s Death(抜粋)

もっと読むにはこちら bloomberg.co.jp

©2025 Bloomberg L.P.