NVIDIAと連携したEquinix AI Factory

分散型エンタープライズAI:大規模なトレーニング、エッジでの推論、データ主権の維持

ウェブサイト
お問い合わせ

データが存在する場所で対応するAIインフラストラクチャ

NVIDIAによって加速されたEquinix AI Factoryは、世界中の都市で280+ データセンターdata centers in equinix:metric-assets/metros/metros-valueを実現するターンキー ソリューションです。このソリューションは、高度な電源や液体冷却から、あらゆる主要クラウドへの低レイテンシーのプライベート接続まで、エンタープライズAIのニーズに合わせて特別に構築されており、ベンダー ロックインや法外なエグレス料金なしで、最大の価値を発揮できる場所にAIワークロードを配置します。

AIワークロードがレガシーインフラストラクチャに負担をかける

組織は最新のAIを拡張する際にさまざまなハードルに直面します。従来のシステムでは、可用性とパフォーマンスの管理から、ラックあたり40~130kVA以上を必要とする大規模なGPU展開のサポートまで、AIの厳しい要件を満たすことができません。データはクラウド、エッジロケーション、プライベート環境に分散されています。リアルタイムでの推論に求められるのは、1ミリ秒未満の遅延ですが、公共インターネットではこれを保証できません。さらに、AIワークロードが世界的に広がるにつれて、主権とコンプライアンスの複雑さが増大します。

主な課題

インフラストラクチャのずれ

AIワークロードには、ラックあたり40~130kVA以上の電力と高度な液体冷却機能が必要です。従来の施設はこのような高密度の設備に対応するように設計されていません。

データ グラビティ

エンタープライズ データは、複数のクラウド、エッジ サイト、プライベート データセンターなど、法域をまたいだあらゆる場所に存在します。一元化には時間がかかり、費用もかかります。

主権とコンプライアンス

AIワークロードが拡大するにつれて、規制要件も増加します。処理が行われる場所を正確に地理的に制御する必要があります。

分散型AIインフラストラクチャの提供

エクイニクスとNVIDIAは、エンタープライズAIの基盤となる設計指針として、NVIDIA Enterprise AI Factoryの検証済み設計を採用したターンキー ソリューションを共同で開発しました。このソリューションは、エクイニクスのグローバル データセンター フットプリント全体に導入され、ITサービス管理のベストプラクティスを使用してAIインフラストラクチャの専門家によって管理されており、NVIDIA Mission Controlを搭載した統合管理ペインを通じてプライベートAIとパブリック クラウド環境を橋渡しし、これまでにない運用の俊敏性を実現します。

エクイニクスとNVIDIAを選ぶ理由

グローバル展開

77 都市圏にまたがる280+ エクイニクスデータセンターは、高度な電力と冷却インフラストラクチャを備え、高密度AI向けに特別に構築されています。

エッジ・ツー・クラウドの接続性

Equinix Fabric®を介して、主要なクラウド、データ、AIプロバイダーすべてへの高速かつ低遅延のプライベート接続を実現します。

ニュートラルなエコシステム

お好みのNVIDIAパートナーと連携できます。ベンダーロックインや高額な解約手数料はなく、完全な柔軟性が保たれています。

プライバシーと主権

AI処理が行われる場所を正確に地理的に制御できることは、医療や金融サービスといった規制対象業界にとって極めて重要です。

稼働率99.999%以上

NVIDIA認定の専門家による24時間365日の運用管理とITサービス管理のベストプラクティスにより、エンタープライズグレードの信頼性を実現します。

持続可能性を組み込んだ設計

持続可能性を念頭に置いて設計されており、再生可能エネルギーと、高密度AIワークロードに最適化された高度な冷却技術を採用しています。

「Equinixのような優れたパートナーと協力することが重要であると考える理由は、当社はパートナーと何年も前からそうしてきているからです。つまり、当社に展開の準備ができたときにはエコシステムの準備もできており、エクイニクスのようなデータセンター パートナーも準備ができています。」

NVIDIA DGX担当バイスプレジデント、Charlie Boyle氏

お客様導入事例

Harrison.ai、エクイニクスとNVIDIAの協力で臨床診断を加速

Harrison.aiは、エクイニクスに導入されているNVIDIA DGX®システムを使用して、モデルのトレーニング時間を短縮し、ML処理を高速化しました。これにより、臨床医はより迅速かつ正確な診断を行えるようになりました。