対話型AIに悩みを相談する人が増えている。しかしAIとの対話にのめりこむあまり、不幸な結果を招くケースも実際に起きている。もちろん有用な使い方もあり、どのように対応すればよいか、日本におけるカウンセリングの第一人者である京都大学・杉原保史教授が考察する。
1. AIに悩み相談をする若者が急増
最近、心理カウンセラー業界の仲間うちで、あくまで肌感覚ではあるが、相談の申し込みが減っているような気がするという話を聞いた。その理由として、対話型AIが普及したことで、悩みをAIに相談して満足する人が増えているからではないかという推測が有力視されているという。
最近の各種調査はその推測を裏づけている。たとえば電通による調査(2025年6月)では、多くの人が対話型AIを悩み相談の目的で使っており、とりわけ若い年代層ではそうした使い方をする傾向が顕著であることが明らかになった。
10代のデータの一部を紹介しよう。10代では対話型AIを週1回以上使用する日常的ユーザーは42%に上る。そして対話型AIに求めていることとして、多くの人が、「課題や宿題に関して教えて欲しい」(43%)、「アイデアを出してほしい」(41%)などの知的な求めとともに、「相談に乗ってほしい」(41%)、「話し相手になってほしい」(32%)、「心の支えになってほしい」(24%)などの情緒的な求めを挙げている。
多くの人が、対話型AIを、情緒的な欲求を満たしてくれる相手とみなして利用している実態が明らかになったのだ。
このように、悩み相談の領域において、対話型AIはすでにかなり広く利用されており、水面下で心理カウンセラーの仕事を肩代わりし始めている。心理カウンセリングの専門家として、私はこうした現状に危惧を抱かざるをえない。というのも、現状の対話型AIを悩み相談のために用いると、ユーザーのメンタルヘルスに深刻な害が生じるリスクがあるからである。














