(ブルームバーグ):中国の人工知能(AI)スタートアップ、DeepSeek(ディープシーク)は29日、実験段階のAIモデルを更新し、これを次世代AIへのステップと称した。
同社はDeepSeek‑V3.1‑Exp プラットフォームを公表し、AIモデルを公開・共有できるプラットフォームのハギングフェイスで「DeepSeek Sparse Attention(DSA)」と呼ぶ新手法を採用していると説明した。杭州を本拠とする同社は、この最新版を「当社の次世代アーキテクチャーに向けた中間ステップ」と位置づけ、また複数の中国半導体メーカーと、このモデルに関して協業していることを示唆した。
DeepSeekの画期的なR1モデルはこの春、シリコンバレーに衝撃を走らせた。同社はAI分野における中国の優位性を強化すべく、新製品を目指している。最新版は旧来のV3.1を基に、AIの訓練と運用を探索・最適化する仕組みを導入している。同社によれば、これは長文シーケンス処理時の効率改善方法に関する研究の成果を示すものだ。
DeepSeekはこれに加え、自社のソフトウエアツール価格を半額にするとも発表。ユーザーの取り込みを狙った価格引き下げ競争に乗り出す形となる。
この日は中国の華為技術(ファーウェイ)が、同社製品がDeepSeekの最新版アップデートをサポートすると発表。ファーウェイは最先端のAI半導体生産を大幅に拡大する準備を進めていることも、関係者によって明らかになった。
中国ファーウェイ、26年に最先端AI半導体生産を大幅に拡大-関係者
DeepSeekによれば、同社モデルの最新バージョンはFP8(Floating Point 8)アーキテクチャーをサポートしており、同時に BF16への対応も進めている。いずれもAI/機械学習で数値をコンピューター上に格納する形式の技術用語だ。理論的には、FP8を使うとメモリー消費を抑えて計算を高速化できる。
AIモデルは膨大な数の数値を扱うため、FP8やBF16のような小さいフォーマットを用いることは、速度と精度のバランスを取る上で有効であり、限られたハードウエア上で大規模モデルを動かしやすくする。FP8は精度こそ非常に高くはないが、多くのAIタスクには有用と見なされている。BF16(Brain Floating Point 16)はAIモデルの訓練により高い精度をもたらすとされている。
原題:DeepSeek Debuts ‘Sparse Attention’ Method in Next-Gen AI Model(抜粋)
--取材協力:Luz Ding.もっと読むにはこちら bloomberg.co.jp
©2025 Bloomberg L.P.