(ブルームバーグ):対話型人工知能(AI)の「ChatGPT(チャットGPT)」を開発した米オープンAIは、同社の現行モデルよりも人間に似た高度な推論能力を持つとする新しいAIの投入を準備している。
20日のライブ配信イベントで発表された新モデル「o3」は、一段と複雑なステップの問題を解決するため、ユーザーの問い合わせに応答する前にこれまでよりも長い時間をかけて回答を導き出す。また、「o3-mini」と呼ばれる小型版も投入予定だ。
オープンAIはライブ配信で、コーディングなどのトピックに関連する複雑な質問に回答する際、9月に導入した推論モデル「o1」をo3がどのように上回るのか、初期段階の一端を詳しく披露した。
同社は、新しいソフトウエアをリリースする前のプロセスとして、安全性・セキュリティー研究者にモデルのテストを依頼している。
サム・アルトマン最高経営責任者(CEO)はイベントで、来年1月末にo3-mini、そのすぐ後にo3をそれぞれリリースする予定だと明らかにした。12日間に及んだライブイベントはこの日が最終日だった。
オープンAIは約2年前、「GPT-3.5」と呼ばれる大規模言語モデル(LLM)で作動するChatGPTをリリースし、AI開発競争に火を付けた。同社は2023年にはより正確で創造的だとするGPT-4、さらに最近では初の推論モデルであるo1を発表した。
他のAI企業も、一段と高度な技術開発を進めている。今月に入り、米アルファベット傘下のグーグルは主力AIモデル「Gemini」の最新バージョンを披露した。
ブルームバーグ・ニュースは先に、オープンAIやグーグルなどAI大手は、新たなモデルの開発に多大な費用を投じても、そのリターンが逓減する状況に直面していると報じた。人間が作成した高度な未利用の新しいトレーニングデータを十分確保するのが困難な点がその一因だ。この問題を回避するため、各社はいわゆる推論により重点を置くなど、新たな戦術に目を向けている。
オープンAIは今回、o1やo3のようなシステムが実行すべきことを確実に行う一方で、ユーザーによる違法行為を助長しないようにするため用いる新しいアプローチを説明する研究も発表した。
「熟考的アラインメント」と呼ばれるこの手法では、モデルがユーザーの問いかけにどのように応答するかを検討する際、一連の安全性関連の手順に従うようになっている。
ただ、人々の倫理観や価値観は多様で、AIに許可すべきこと、許可すべきでないことについての考え方も多岐にわたるという事実により、こうした取り組みは複雑化している。
原題:OpenAI Unveils More Advanced Reasoning Model in Race With Google(抜粋)
もっと読むにはこちら bloomberg.co.jp
©2024 Bloomberg L.P.