すべて
タグ
NVIDIA、次世代AI基盤「Rubin」を発表。推論コスト1/10でAIの普及を加速
リリース
AI関連

NVIDIA、次世代AI基盤「Rubin」を発表。推論コスト1/10でAIの普及を加速

公開日:

NVIDIAは、米ラスベガスで開催中のCESにて、次世代AIプラットフォーム「NVIDIA Rubin」を発表しました。6つの新しいチップで構成されるこのプラットフォームは、AIスーパーコンピューターの実現を目的としており、AIのトレーニングと推論のコストを劇的に削減することで、AI技術の本格的な普及を後押しすることが期待されます。

この記事をシェア

ポイント

  • 1
    Blackwell比で推論コストを最大1/10、特定モデルのトレーニングGPU数を1/4に削減
  • 2
    6つの新チップ(Vera CPU、Rubin GPUなど)を緊密に連携させた新設計
  • 3
    MicrosoftやCoreWeaveなどが早期採用を表明、主要クラウド企業も追随

NVIDIAが発表した「Rubin」プラットフォームは、AIのコンピューティング需要が急増する中で、コスト効率と性能を飛躍的に向上させることを目指しています。現行のBlackwellプラットフォームと比較して、AIの応答生成(推論)にかかるコストを最大10分の1に、また、複雑なAIモデル(MoEモデル)のトレーニングに必要なGPU数を4分の1に削減できるとしています。これにより、これまでコスト面で導入が難しかった企業にも、大規模AI活用の道が拓かれることになります。

この性能向上を実現するのが、新たに設計された6つのチップ群です。プラットフォームの中核をなす「Vera CPU」と「Rubin GPU」に加え、チップ間の高速通信を担う「NVLink 6 スイッチ」やネットワーク関連のチップなどが緊密に協調して動作します。このハードウェアとソフトウェアにわたる統合設計が、システム全体でのパフォーマンスを最大化する鍵となっています。

また、AIネイティブなストレージ基盤や、次世代のイーサネットネットワーキング技術も導入されます。これにより、複数のAIシステムを連携させ、あたかも一つの巨大なAI環境として機能させることが可能になり、将来の100万GPU規模のAIファクトリー構築への道筋を示すものとなります。

この新しいプラットフォームには、すでに業界から大きな期待が寄せられています。Microsoftは次世代のAIデータセンターに採用する計画を発表しており、クラウドパートナーのCoreWeaveも早期にサービス提供を開始する予定です。このほか、AWS、Google Cloud、Oracle Cloud Infrastructureといった主要クラウドプロバイダーも採用を予定しており、幅広いエコシステムでの活用が見込まれます。Rubinを搭載した製品は、2026年後半からパートナー企業を通じて提供が開始される予定です。

引用元:PR TIMES

O!Productニュース編集部

O!Productニュース編集部からのコメント

Blackwellの発表から間もない中での次世代機「Rubin」の発表は、NVIDIAの驚異的な開発速度を示しています。AIインフラの競争はさらに激化し、企業はより高性能なAIを低コストで利用できる時代が近づいているのかもしれません。

この記事をシェア

AI事例マッチ度診断背景

AI事例マッチ度診断

あなたにビッタリのサービスを診断できます!
個人情報・会員登録は一切不要。完全無料で診断いただけます。

AI事例マッチ度診断
AI事例マッチ度診断

関連ニュース

この記事を読んだ人はこんなタグにも興味があります

この記事をシェア