AI時代の若年層を迎える~AIとの協働を前提とした「人の能力育成方針」をどう打ち出すか

一般社団法人データサイエンティスト協会の調査によれば、生成AIの実際の業務利用率(試用や検討段階を除く)は、2025年8月時点で14.7%にとどまっている。

業種や企業規模にもよると思われるが、現時点ではまだまだ多数派とは言い難い。

しかし今後、生成AIの業務導入がさらに進展していく中で、影響は単なる省力化にとどまらず、生成AIの活用を前提とした業務プロセスの分解・再構成や自動化、さらには人が担う役割の再設計へと広がっていく可能性が高いとみられる。

AI、とりわけ生成AIがもたらす価値は、単に「速く答えを出す」ことのみにあるのではない。

探索・整理・比較・仮説の生成など、人の能力に制約(限定)が生じやすい「前工程」を補助し、意思決定のプロセスを改善することで、誤りを減らし、その品質を高める可能性があると考えられる。

一方で、オートメーション・バイアス(自動化への過信)や、生成AIのハルシネーション(幻覚やもっともらしい誤情報)、さらにはレコメンドを無批判に受け入れることによる偏りの増幅など、AIは「人の限界を補う」存在であると同時に、「人の(認知上の)弱点を増幅し得る」存在でもある。

さらに、AIは選択肢の生成や比較を支援することはできても、「どのリスクを許容するのか」「誰にどのような影響が及ぶのか」といった個人の価値判断そのものを肩代わりすることは難しい。

こうした判断までをAIに委ねるほど、企業の意思決定における説明責任は揺らぎやすくなる。

このような変化は、業務の効率性にとどまらず、意思決定の在り方や、人材に求められる能力像そのものを問い直す契機ともなり得る。

だからこそ、AIの活用を前提としつつも、人の側が果たすべき役割を明確にし、その力を意識的に伸ばしていくことが、今後ますます重要になるとの見方もできるだろう。

この点について、AIと社会の関係に詳しい東京大学大学院工学系研究科の大澤幸生教授は、「AIが自動的に解を与えるものではなく、人間が意思決定者として必要なデータを考え、振り返り、修正するサイクルを回す必要がある」と指摘する。

実際、講義に参加した学生からは、「AIが便利になるほど、AIを使うことが『近道』になり、その近道が自分の考え方の偏りやAIへの過信につながる。だからこそ、人が自分で選び、自分で引き受けられる状態を守るために、力をつけていくことが大事だと思う」といった類の回答も見られた。

今後、Z世代からα世代へと学生の中心コホートが移行するにつれ、学生生活の延長線上で生成AIに接触し、日常的に利用する層は一段と厚くなると見込まれる。

したがって企業にとっては、若年層に対し、AIとの協働を前提とした能力育成の方針とプロセスを明確に示し、将来不安を「成長の見通し」へと転換していけるかどうかが、これまで以上に問われる局面に入っていると言える。

(※情報提供、記事執筆:ニッセイ基礎研究所 生活研究部 准主任研究員 小口 裕)

※なお、記事内の「図表」と「注釈」に関わる文面は、掲載の都合上あらかじめ削除させていただいております。ご了承ください。