助言が必要なとき、人々はどこに向かうのか。最近では、多くの人が画面を凝視し、黙考している。

人工知能(AI)を巡る議論は生産性や成長に終始しがちだ。だが、米誌ハーバード・ビジネス・レビューの昨年の調査によれば、生成AIの主な用途は「心のケア」や「生きる意味の探求」といった、極めて人間的な領域にあった。かつて友人やカウンセラー、宗教家が担った役割に、機械が静かに浸透しつつある。

信仰を持つ人にも持たない人にも、ばかげて聞こえるかもしれない。しかし、不確実性が増す世界で、AIは極めて人間的な欲求を満たしている。

中国ではDeepSeek(ディープシーク)が占い師として重用され、インドではヒンズー教聖典「バガヴァッド・ギーター」を学習した「GitaGPT(ギーターGPT)」が普及している。米アマゾン・ドット・コムのライブストリーミングサービス部門「Twitch(トゥイッチ)」には「AIジーザス」が誕生し、8万5000人超のフォロワーを集めている。シリコンバレーでは、AIを神格化する疑似宗教的な動きも絶えない。

人々がAIを神聖視するのは、それが「全知」であるかのように振る舞うからだ。AIは耳を傾け、愛を与えてくれる。より正確に言うなら、膨大な知識を学習したAIは、利用者の関心を引きつけるために迎合的な回答を生成するよう調整されている。

テクノロジー業界は長年、AIを宗教的な言葉で装飾してきた。「超知能」の開発競争は、病の克服や地球の救済、労働からの解放といった救世主的な約束と共に語られる。リスクもまた、人類の救済か破滅かという壮大な文脈で提示される。奇跡のような商品として宣伝されれば、利用者が信者のように心酔するのも必然といえる。

既存の宗教指導者は警鐘を鳴らし始めている。ダライ・ラマ14世は昨年10月、科学者や学者、企業幹部ら120人超とAIに関する対話集会を開催。人工の心と生命の心の境界を問うた。ローマ教皇も、チャットボットへの感情的依存や人を操作するコンテンツの広がりに言及し、人間が思考能力を放棄することの危険性を指摘している。

もっとも、テクノロジーと宗教は必ずしも対立するわけではない。京都大学の研究チームは、キリスト教や仏教の教えを授けるボットを開発した。特筆すべきはその慎重な姿勢だ。ブータンの僧侶による試験運用や神学校での試用を経て、安全性を慎重に見極めている。市場が速度と規模を競う中、責任ある開発者は、この領域におけるリスクの重みを理解している。

「啓示」ではなく「定着」

社会の分断が深刻化する中、対人関係の摩擦を避け、AIに道徳的な解を求める傾向が強まっている。過去1週間で筆者がDeepSeekに「悪の根源」や「苦しみの中で希望を保つ方法」を問うた際、回答は型通りだったが、他者との交流を促す内容が含まれていた。対照的に、ChatGPTは会話を継続させるための「問いかけ」で締めくくられることが多い。これは「啓示」ではなく、利用を続けさせるための仕組みだ。そして、それは脆弱(ぜいじゃく)なユーザーにとって危険な結果をもたらす可能性がある。

AIの真の危うさは、ボットを使った原子爆弾の製造といった極端な例よりも、むしろ静かな日常に潜んでいる。何百万人もの人々が、人生の意味付けをアルゴリズムに外注し始めたとき何が起きるか。助言を機械に委ねるほど、われわれの信念や行動はそれによって形作られ、私的な告白は利用者をつなぎ留めるための学習データへと変貌する。

米オープンAIのサム・アルトマン最高経営責任者(CEO)はかつて「成功する創業者は宗教に近いものを創造する」と記した。その野心は図らずも予言的であったといえる。だが、AIは救済をもたらさない。もたらすのは「定着」だ。サブスクリプション型の預言者は、結局のところ、商人に過ぎない。

(キャサリン・トーベック氏はアジアのテクノロジー分野を担当するブルームバーグ・オピニオンのコラムニストです。CNNとABCニュースの記者としてもテクノロジーを担当しました。このコラムの内容は個人の意見で、必ずしも編集部やブルームバーグ・エル・ピー、オーナーらの意見を反映するものではありません)

原題:AI Won’t Bring You Closer to God: Catherine Thorbecke(抜粋)

もっと読むにはこちら bloomberg.com/jp

©2026 Bloomberg L.P.