
Akamai、数千基のNVIDIA Blackwell GPUを導入し分散型AIプラットフォームを強化
公開日:
アカマイ・テクノロジーズは、グローバルな分散型クラウドインフラを強化するため、数千基のNVIDIA Blackwell GPUを取得・展開すると発表しました。これにより、AIの推論処理をユーザーに近い場所で高速に実行できるプラットフォームの構築を進めます。AIの実用化が進む中、処理の遅延が課題となっていますが、同社の広範なネットワークを活かすことで、この問題の解決を目指します。
ポイント
- 1数千基のNVIDIA Blackwell GPUをグローバルネットワークに分散配置
- 2AI推論の遅延を最大2.5倍低減、コストを最大86%削減と発表
- 3自動配送や手術支援ロボットなど、物理システムとの連携を視野に
推論時代のインフラ需要に対応
アカマイ・テクノロジーズは、NVIDIAの最新GPU「Blackwell」を数千基導入し、自社のグローバルな分散型クラウドインフラに展開します。この取り組みは、AIモデルの「推論」(学習済みモデルを使った処理)に特化したコンピューティングリソースを、世界中のユーザーに近い場所に配置するのが目的です。
同社クラウドテクノロジーグループのCOO兼ゼネラルマネージャー、アダム・カロン氏は、「Akamaiは推論時代のニーズに応えることに注力している」と述べています。中央集約的なデータセンターだけでは、地理的に離れたユーザーへのAI応答に遅延が生じやすく、データ転送コストもかかります。同社は、自身が持つ世界4,400拠点以上のエッジネットワークを活かし、これらの課題の解決を図ります。
低遅延とコスト削減を実現
このプラットフォームにより、AI推論ワークロードは最適な場所に自動的に振り分けられます。同社によれば、従来の大規模クラウド事業者のインフラと比べて、処理の遅延を最大2.5倍低減し、推論にかかるコストを最大86%削減できるとしています。
具体的には、専用GPUクラスターによる高性能な推論処理、データを外部に出さずに行えるローカルでのモデル微調整、自社データに基づくモデル最適化などが可能になります。これにより、データのプライバシー保護や地域の規制対応にも配慮できるとしています。
物理世界との連携を視野に
この分散型アーキテクチャは、自動配送システムやスマートグリッド、手術支援ロボット、高度な不正検知など、現実世界の物理システムと連携するAI(フィジカルAIやエージェント型AI)の基盤としての役割も期待されています。リアルタイム性が求められるこうした分野では、低遅延で信頼性の高い推論処理が不可欠です。
アカマイは2025年10月に「Akamai Inference Cloud」を発表するなど、AI推論インフラの強化を続けてきました。今回のBlackwell GPUの大規模導入は、その戦略をさらに推し進めるものです。
Q&A
Q. Akamaiとは何ですか?
A. 世界中に4,400以上の拠点を持つネットワークを運用する企業です。AIの処理をユーザーの近くで行う「分散型クラウドインフラ」を提供しています。
Q. 今回の発表で、AIの処理はどう変わる?
A. 処理が中央のデータセンターだけでなく、利用者に近い場所で行われるようになります。これにより、応答が最大2.5倍速くなり、コストも最大86%削減できるとしています。
Q. どのような分野での利用が想定されていますか?
A. 自動配送や手術支援ロボットなど、遅延が許されないリアルタイムな判断が必要な分野での利用が見込まれています。
関連リンク
- Akamai Technologies
- NVIDIA Blackwell GPU
- Akamai Inference Cloud を発表
- NVIDIA RTX PRO 6000 Blackwell Server Edition GPU
- NVIDIA RTX PRO Server
- NVIDIA BlueField-3 DPU
- akamai.com/blog
- X

O!Productニュース編集部からのコメント
AIファクトリーで作ったモデルを現場に届ける神経系という比喩が分かりやすいです。リアルタイム性が命のフィジカルAI領域で、Akamaiのエッジ網が強みを発揮しそうです。
引用元:PR TIMES
この記事の著者
O!Productニュース編集部












