百度、2025年に新世代昆仑芯M100・M300を発表、2028年に千卡級超ノードを投入
2025年に開催された百度世界大会で、同社は次世代AI向けプロセッサ「昆仑芯」M100とM300を正式に発表した。さらに、2028年に千卡級超ノードを実装する長期ロードマップも同時に示された。

2025年に開催された百度世界大会で、同社は次世代AI向けプロセッサ「昆仑芯」M100とM300を正式に発表した。さらに、2028年に千卡級超ノードを実装する長期ロードマップも同時に示された。
本稿では、発表されたチップの特徴とリリース時期、天池(Tianchi)超ノードの具体的計画、そして中国のAIインフラ全体に与える影響を詳しく解説する。
昆仑芯 M100:大規模推論向けの極致コストパフォーマンス
昆仑芯 M100 は、2026年初頭の市場投入を目指す大規模推論専用プロセッサである。設計コンセプトは「極致性価比」であり、同社が提供するクラウドAIサービスにおいて、数十億パラメータ規模の言語モデルや画像認識モデルを低コストで高速に実行できるよう最適化されている。具体的なスペックは未公表だが、過去世代の昆仑芯と比較して演算単位数やメモリ帯域が大幅に拡張されると見込まれている。
このチップは、百度が自社の検索・広告・クラウドプラットフォームに組み込むだけでなく、外部パートナーへのAIインフラ提供にも活用される方針だ。中国国内のAIスタートアップやエンタープライズ向けに、推論コストを削減しつつスループットを向上させることが期待されている。
昆仑芯 M300:超大規模マルチモーダルモデルの訓練・推論を支える極致性能
続いて発表された昆仑芯 M300 は、2027年初頭にリリース予定の次世代プロセッサで、主に超大規模マルチモーダルモデルの訓練と推論を対象としている。M300 の設計は「極致性能」を掲げ、数千億パラメータ規模のモデルでも効率的に学習できるよう、内部のデータフローとメモリ階層を再構築したとされる。
特に、画像・テキスト・音声を同時に処理するマルチモーダルAIの需要が急速に高まる中、M300 はそれらを統合的に学習させるための演算リソースと帯域幅を提供する。これにより、百度は自社の大規模言語モデル「Ernie」や、マルチモーダル検索エンジンの性能向上を図ると同時に、国内外の研究機関への計算資源提供を拡大する計画だ。
天池(Tianchi)超ノードのロードマップ
チップ発表に合わせて、百度は天池超ノードの拡張計画も明らかにした。2026年上半期に「天池 256 超ノード」が、下半期に「天池 512 超ノード」がそれぞれ市場に投入される予定である。512 超ノードは最大 512 カードの相互接続を実現し、カード間インターコネクトの総帯域幅を従来比で 2 倍に向上させる。
この帯域幅の増強により、単一ノードで万億(10^12)パラメータ規模のモデル訓練が可能になると発表された。実際に、天池 512 超ノードは大規模言語モデルや生成AIのトレーニングにおいて、従来数ノードで必要だった通信コストを大幅に削減できると期待されている。
五年先を見据えた百度のAIインフラ戦略
百度は本大会で、次の5年間にわたるAIインフラのロードマップを提示した。主なマイルストーンは以下の通りである。
- 2028年:千卡級(千カード規模)超ノードの商用化。1,000 カード以上を単一クラスターで統合し、トレーニングと推論を同時に高速化。
- 2029年:昆仑芯 N 系列のリリース。N 系列は次世代の省電力・高性能チップとして、エッジデバイスからデータセンターまで幅広く展開される見込み。
- 2030年:百度百舸(Baige)プロジェクトとして、百万カード規模の単一クラスターを実現。これは世界最大級のAI計算基盤となり、超大規模モデルの実験や産業AIの実装に活用される。
このロードマップは、国内外のAI競争が激化する中で、百度がハードウェアからソフトウェア、サービスまで一貫したエコシステムを構築し、AIインフラの自立性と競争力を高める狙いを示している。
中国AI市場への影響と国際的な位置付け
百度の発表は、中国政府が掲げる「新基礎設施設備」政策と合致している。政府は2025年までにAIチップとデータセンターの自給率を大幅に引き上げる方針を示しており、国内企業が自前のAIハードウェアを開発・量産する流れが加速している。
一方、米国のNVIDIAやAMD、そして欧州のGraphcore などが提供するGPU・AIアクセラレータと比較すると、百度の昆仑芯は「コストパフォーマンス」と「大規模相互接続」に重点を置いた設計で差別化を図っている。特に、千卡級・百万カード規模のクラスターは、現在のGPUベースのスーパーコンピュータが抱えるスケーラビリティ課題を回避できる可能性がある。
しかし、チップの製造は依然として台湾や韓国のファウンドリに依存している点は留意すべきである。サプライチェーンリスクが高まる中、百度は自社の設計力と国内外の製造パートナーシップをどう活用するかが、今後の成功要因となるだろう。
まとめと今後の展望
百度が2025年に発表した新世代昆仑芯 M100・M300 と、天池超ノードの拡張計画は、中国のAIインフラがハードウェアレベルで自立しつつあることを示す重要なシグナルである。2026年から2027年にかけてのチップリリース、2028年以降の千卡級超ノード、そして2030年の百万カードクラスターという長期ビジョンは、国内外のAI研究・産業応用に大きなインパクトを与えると予想される。
日本の企業や研究機関にとっては、百度が提供する高性能・低コストのAIインフラを活用することで、マルチモーダルAIや大規模言語モデルの実装コストを抑えつつ、競争力を維持できる可能性がある。今後は、実際の製品リリース時期や性能ベンチマークが公開されるにつれて、具体的な導入シナリオが明らかになるだろう。