
NVIDIA、次世代AI基盤「Rubin」を発表。推論コスト1/10でAIの普及を加速
公開日:
NVIDIAは、米ラスベガスで開催中のCESにて、次世代AIプラットフォーム「NVIDIA Rubin」を発表しました。6つの新しいチップで構成されるこのプラットフォームは、AIスーパーコンピューターの実現を目的としており、AIのトレーニングと推論のコストを劇的に削減することで、AI技術の本格的な普及を後押しすることが期待されます。
ポイント
- 1Blackwell比で推論コストを最大1/10、特定モデルのトレーニングGPU数を1/4に削減
- 26つの新チップ(Vera CPU、Rubin GPUなど)を緊密に連携させた新設計
- 3MicrosoftやCoreWeaveなどが早期採用を表明、主要クラウド企業も追随
NVIDIAが発表した「Rubin」プラットフォームは、AIのコンピューティング需要が急増する中で、コスト効率と性能を飛躍的に向上させることを目指しています。現行のBlackwellプラットフォームと比較して、AIの応答生成(推論)にかかるコストを最大10分の1に、また、複雑なAIモデル(MoEモデル)のトレーニングに必要なGPU数を4分の1に削減できるとしています。これにより、これまでコスト面で導入が難しかった企業にも、大規模AI活用の道が拓かれることになります。
この性能向上を実現するのが、新たに設計された6つのチップ群です。プラットフォームの中核をなす「Vera CPU」と「Rubin GPU」に加え、チップ間の高速通信を担う「NVLink 6 スイッチ」やネットワーク関連のチップなどが緊密に協調して動作します。このハードウェアとソフトウェアにわたる統合設計が、システム全体でのパフォーマンスを最大化する鍵となっています。
また、AIネイティブなストレージ基盤や、次世代のイーサネットネットワーキング技術も導入されます。これにより、複数のAIシステムを連携させ、あたかも一つの巨大なAI環境として機能させることが可能になり、将来の100万GPU規模のAIファクトリー構築への道筋を示すものとなります。
この新しいプラットフォームには、すでに業界から大きな期待が寄せられています。Microsoftは次世代のAIデータセンターに採用する計画を発表しており、クラウドパートナーのCoreWeaveも早期にサービス提供を開始する予定です。このほか、AWS、Google Cloud、Oracle Cloud Infrastructureといった主要クラウドプロバイダーも採用を予定しており、幅広いエコシステムでの活用が見込まれます。Rubinを搭載した製品は、2026年後半からパートナー企業を通じて提供が開始される予定です。
引用元:PR TIMES

O!Productニュース編集部からのコメント
Blackwellの発表から間もない中での次世代機「Rubin」の発表は、NVIDIAの驚異的な開発速度を示しています。AIインフラの競争はさらに激化し、企業はより高性能なAIを低コストで利用できる時代が近づいているのかもしれません。

関連ニュース

IT・情シスDXPO横浜’26が初開催、システム開発やセキュリティの商談展

“外に出ない話”が満載。新規事業担当者向けカンファレンス「NEXT Innovation Summit 2026」が初の完全オフライン開催

XR・メタバースの祭典「TOKYO DIGICONX」1/8開幕。180社超が出展、豪華企画も

横浜で初開催!DXの総合展「DXPO横浜」に230社380製品が集結

Qlean Dataset、AI開発を加速する「テクノロジー対話」の日本語音声データを提供開始

宣伝会議、マーケ・AIを横断する新イベント「KAIGI GROUP フォーラム」を2026年2月開催

フェイク動画対策の新基準に?動画の真正性を数学的に証明する「AI-VideoAuth™」提供開始

AIエージェントの「暴走リスク」を動的に制御、AIセーフティ基盤「datagusto」提供開始

atenaが「スキャン代行」を正式リリース、税理士の確定申告業務を支援



