Akamai、NVIDIA Blackwell GPUを数千基展開し、世界最大級の分散型AIプラットフォームを構築へ:AI推論の常識を変える新時代

Akamaiロゴ

はじめに:AIの新たな地平を拓くAkamaiとNVIDIAの協業

オンラインビジネスを支え、サイバーセキュリティとクラウドコンピューティングの分野で世界的に知られるAkamai Technologiesは、AIの未来を大きく変える発表を行いました。同社は、NVIDIAの最新鋭Blackwell GPUを数千基にわたり導入し、世界最大級の分散型AIプラットフォームを構築すると発表したのです。

この取り組みは、AIの研究開発から、モデルの微調整(ファインチューニング)、さらには学習後の最適化までを一貫して行えるプラットフォームを構築することを目的としています。Akamaiの広大なグローバルネットワーク全体にAI処理能力を分散させることで、これまでのAI活用における課題であった「遅延(レイテンシー)」や「データ転送コスト(エグレスコスト)」を解消し、より高速で効率的なAI推論の実現を目指します。

Akamaiが構築する「分散型AIプラットフォーム」とは?

AIの進化は目覚ましく、これまで大規模なデータセンターでAIモデルを学習させることに焦点が当てられてきました。しかし、AIが実社会で活用されるにつれて、「推論」の重要性が増しています。推論とは、学習済みのAIモデルが新しいデータを受け取り、そこから答えや予測を導き出すプロセスのことです。

多くの組織がAIの本格的な導入を阻む最大の障壁として「レイテンシー(遅延)」を挙げています。AIがリアルタイムで意思決定を求められる場面では、この遅延が大きな問題となります。例えば、自動運転車が瞬時に周囲の状況を判断したり、スマートグリッドが電力需要に即座に対応したりするようなケースです。

Akamaiが目指すのは、このような課題を解決するための「分散型AIプラットフォーム」です。これは、AIの処理能力を一箇所に集中させるのではなく、Akamaiの持つ世界中のネットワーク拠点に分散配置するという考え方です。これにより、AIが利用される場所のすぐ近くで推論処理が行われるため、大幅な遅延の削減とデータ転送コストの抑制が期待されます。

AkamaiのCloud Technology Group担当Chief Operating Officer兼General ManagerであるAdam Karon氏は、このビジョンについて次のように述べています。「ハイパースケーラーがAI学習の限界に挑み続ける一方で、Akamaiは推論時代特有のニーズに応えることに注力しています。中央集約的な『AIファクトリー』はモデル構築に依然として不可欠ですが、それらのモデルを大規模に実用化するには、分散型の“神経系”が必要です。Akamaiは単に容量を増やしているだけではありません。グローバルネットワーク全体に、推論に最適化されたコンピューティングを分散配置させることで、AIを研究室から街角や病床といった場所へ移行させるために必要なスケールを、低レイテンシーで提供しているのです。つまり、実際に作業が行われ、データが存在し、投資対効果(ROI)が生まれる現場へAIを届けるための基盤です。」

AIの未来を拓くNVIDIA Blackwell GPUの力

この分散型AIプラットフォームの中核を担うのが、NVIDIAの最新世代AIチップである「Blackwell GPU」です。Blackwellアーキテクチャは、大規模なAIワークロード、特に推論処理において卓越した性能を発揮するように設計されています。

NVIDIA Blackwell GPUの詳細については、以下のNVIDIAのウェブサイトで確認できます。

AkamaiのプラットフォームにNVIDIA Blackwell AIインフラストラクチャが統合されることで、主に以下の3つの機能が強化されます。

  • 予測可能で高性能な推論: 専用のGPUクラスターがAIワークロードを処理するため、非常に高速で安定したレスポンスを生成できます。これにより、リアルタイム性が求められるアプリケーションでのAI活用がさらに進むでしょう。

  • ローカライズされたファインチューニング: 大規模言語モデル(LLM)などを、データのプライバシーや地域のコンプライアンス要件を守りながら、利用場所の近くで最適化することが可能になります。これにより、より地域や企業ごとのニーズに合わせたAIモデルの運用が容易になります。

  • モデル学習後の最適化: 基盤モデル(事前に大量のデータで学習された汎用的なAIモデル)を、特定のタスクや独自のデータに合わせてさらに微調整・適応させることで、その精度を向上させることができます。

Akamaiの「グローバル分散型AIコンピューティンググリッド」構想

AkamaiがNVIDIA Blackwell GPUを採用することは、「グローバル分散型AIコンピューティンググリッド」というAkamaiの壮大なビジョンを現実のものにするための一歩です。これは、AI処理を中央集約型のデータセンターだけでなく、世界中のエッジ(利用者に近い場所)にまで広げることで、AIが物理システムと連携し、より高度な機能を発揮できるようにするものです。

具体的には、自動配送システム、スマートグリッド(次世代送電網)、手術支援ロボット、高度な不正検知システムなど、現実世界でリアルタイムに動作するAIアプリケーションの実現を後押しします。従来のクラウドアーキテクチャでは、地理的な制約や高額なデータ転送コストが課題となることがありましたが、分散型のアプローチによってこれらの制約が大幅に軽減されます。

Akamaiは、この取り組みに先立ち、2025年10月には「Akamai Inference Cloud」を発表しています。これは、AI推論をユーザーやデバイスの近くで実行することで、AIの利用場所と利用方法を再定義するものです。プラットフォームエンジニアや開発者は、Akamaiのソリューションを利用することで、AIアプリケーションやデータ集約型のワークロードをエンドユーザーの近くで構築・実行し、極めて効率的なスループットを実現できるようになります。

レイテンシーとコストを劇的に改善するAkamaiのソリューション

Akamaiの新しいプラットフォームは、AI推論において顕著な性能向上とコスト削減をもたらすと期待されています。NVIDIA AIインフラストラクチャを活用したAkamaiのソリューションは、従来のハイパースケーラー(大規模クラウド提供企業)のインフラと比較して、レイテンシーを最大で2.5倍低減し、AI推論にかかるコストを最大86%削減できるとされています。

この高い性能は、以下のNVIDIA製ハードウェアとAkamaiの分散型インフラの組み合わせによって実現されます。

  • NVIDIA RTX PRO 6000 Blackwell Server Edition GPU: 高度なAI推論処理能力を提供します。

  • NVIDIA RTX PRO Server: 上記GPUを搭載し、高密度なコンピューティング環境を提供します。

  • NVIDIA BlueField-3 DPU: データ処理ユニットとして、ネットワークやストレージのボトルネックを解消し、全体のパフォーマンスを向上させます。

これらのNVIDIA製ハードウェアと、世界4,400拠点以上に展開するAkamaiの分散型クラウドコンピューティングインフラおよびグローバルエッジネットワークが一体となることで、真に高性能で効率的なAIプラットフォームが実現します。Akamaiは、初期導入分であるNVIDIA RTX PRO 6000 Blackwell Server Edition GPUに対してすでに強い需要を確認しており、今後も継続的にGPU容量を増強していく計画です。

まとめ:AIの可能性を広げるAkamaiとNVIDIAの取り組み

AkamaiによるNVIDIA Blackwell GPUの数千基展開は、AIの活用方法に大きな変革をもたらすでしょう。これまで中央集約型で行われてきたAIの処理が、利用者に近い場所で分散的に行われることで、遅延の少ないリアルタイムなAIアプリケーションがより身近なものになります。

これは、AIが単なるデータセンター内の技術に留まらず、私たちの日常生活や産業のあらゆる側面に深く統合される「物理AI」や「エージェント型AI」の時代を加速させる重要な一歩と言えます。AkamaiとNVIDIAの協業は、AIの無限の可能性をさらに広げ、新たなイノベーションの創出を後押しするでしょう。

Akamaiに関する詳細情報は、以下のリンクから確認できます。

タイトルとURLをコピーしました