AIエージェントとは、近年急激な進化を遂げている人工知能における主要な技術であり、自律的な観点で判断やタスクを行えることから、日常生活やビジネスシーンでの活用範囲を飛躍的に拡大させている。
人工知能の進化の歴史は長く、3つのブームを経て徐々に人間の知性に迫りつつある。
その中でも、AIエージェントの諸技術は、人工知能に、自律性を伴う思考能力や問題解決能力、他のAIと協調して行動する能力を与えている。この点においてAIエージェントは人工知能発展の歴史におけるブレイクスルーである。
さらにAIエージェントに人格や個性をも与えることができるため、ますます人間に肉薄したタスクの実施や振る舞いのシミュレーションが可能となった。
AIエージェントの進化によって社会へのAI応用範囲が広がる一方で、懸念事項も増加する。人間社会とAIがどのように共生していくべきか検討することが急務であろう。
人工知能と人間社会の関係性の変化
今日、人工知能(AI)の利用が急速に広がっている。2022年末に登場したChatGPT以降、対話インターフェース型の人工知能をはじめ、各種ソフトウェアやチャットボット、Webアプリケーションなどあらゆる場面で活用が広がっている。
この普及の背景には、対話型生成AIという技術による飛躍的な言語および思考能力の獲得と、AIエージェントによる自律性の獲得が大きい。
急激な進化を果たしたように見えるAIであるが、その歴史は古く、AIという言葉が初めて提唱された1956年のダートマス会議から、第1次AIブーム(1950年~60年代)、第2次AIブーム(1980年~90年代)、第3次AIブーム(2000年代後半以降)と複数のブームを経て、70年越しで大きく花開いたといえる。
以下では、これら3つのブームの概要とどのように人間の知性に近づいたかを簡潔に整理する。
第1次AIブームでは、人間の知的な営みである「探索」「推論(帰納や演繹)」をコンピューターが担えるようになったことが大きな進歩であった。
例えばLogic Theoristというプログラムにおいて、数学の定理を様々な公理の組み合わせで自動的に証明を行うことができるようになり、当時の計算機が持つ機能としては画期的な事であった。
またこの時期に初期の自然言語システムとして代表的なELIZA(イライザ)も開発された。ELIZAの仕組みは基本的に機械的な推論による定型文の応答である。
たとえばユーザがインプットした入力文を一部引用して返答することで、知性は無いが、人間との対話を比較的長く続けられたことから、あたかも会話が成立しているように見えるものである。
当時は、基本的に計算資源の制約などでボードゲームなどを解くような、トイプログラムと呼ばれる人工知能が中心であったものの、ELIZAをはじめとした現代のチャットボットに通ずる対話型AIの原型が、この時代において既に示されていたと考えられる。
しかし実用的な展開につながらなかったため、第1次AIブームは終息していった。
第2次AIブームではエキスパートシステムと呼ばれる、専門家の知識をデータベースに格納し、専門家と同様の意思決定が行えるシステムに注目が集まった。
例えば、医師などが診断を行う際に用いる前提知識と判断ロジックをコンピューター上に定義することで、医師同様に症状データから診断結果を人工知能が推論するという仕組みである。
しかし、必要な専門家の知識が膨大であり、コンピューターに定義することに対する人間側への量的負荷が高いとともに、人間の意思決定や判断は極めて多様であることからルールベースでの推論では対処しきれない場面が多く、実用性には課題が残った。
第3次AIブームでは、大量のデータからパターンを自動的に認識する機械学習(マシンラーニング)と呼ばれる技術が発展した。
特に、深層学習(ディープラーニング)と呼ばれるニューラルネットワーク(神経細胞から着想を得た計算アルゴリズム)を発展させた技術によってはるかにAIの応用範囲が広がった。
深層学習では表現学習と呼ばれる意思決定や判断などを行う際の基準(特徴量)を自動的に学習できるため、これまでのAIにおける「局所的・限定的条件下でしか機能しない」というボトルネックを一部解消している。
例えば、大量に動物の画像を学習させることで、ある画像に映っている動物がどの種類なのか判断をする際の基準を自動的に導き出すことを可能にする。
このようなブレイクスルーにより、コンピュータービジョン(画像情報処理)や自然言語処理、自動運転など人間の認知機能・知的タスクをAIが代替する今日の最先端応用が実現している。
以上見てきたように、1950年代から大きく3次に及ぶブームを経て、AI技術は着実に人間の知性に近づいてきた。
しかし、ここまでの第1次~第3次AIブームに共通していることは、人工知能が処理すべきタスクは指示を行う人間から明示されなければ機能しないということである。
すなわち、これまでの人工知能には人間のように問題解決の際、「ゴールを明確化すること」をはじめとした行動前の計画を立てる能力や、タスクを細分化する能力、問題解決に際して方策を変えるなど自律的に試行錯誤する能力が備わっていなかったことを意味する。
また人間は複雑な問題解決を行う際、複数人から成るチームを構成し知恵を出し合いながら問題解決に挑む。
このような他者との相談や議論といった人間の社会的な問題解決の営みについても、従来の人工知能が自律的に複数の人工知能と協力できておらず模倣に至っていない部分の一つである。
