找回密码
 立即注册
搜索
热搜: Apple Tesla Amazon
查看: 180|回复: 0

AMDが新しいAI高性能コンピューティングソリューションを発表

[复制链接]

43

主题

0

回帖

157

积分

注册会员

积分
157
发表于 2024-10-12 10:17:13 | 显示全部楼层 |阅读模式

AMDは10月11日、Advancing AI 2024で、第5世代AMD EPYCサーバーCPU、AMD Instinct MI 325 X加速器、AMD Pensando Salina DPU、AMD Pensando Pollara 400 NIC、企業のAI PC用AMD Ryzen AI PRO 300シリーズプロセッサーなどのAI高性能コンピューティングソリューションを新発売した。
AMD取締役会長および最高経営責任者の蘇姿豊博士は、「新しいEPYC CPU、AMD Instinct GPU、Pensando DPUを活用して、お客様の最も重要で過酷なワークロードをサポートするための最先端のコンピューティング能力を提供します。将来的には、データセンターのAIアクセラレータ市場規模は2028年には5000億ドルに成長すると予測しています。」
2018年、AMD EPYCサーバーCPUはわずか2%の市場シェアにとどまり、7年足らずで今日で34%に達し、データセンターとAIはAMDに大きな成長機会をもたらした。
EPYC CPUの全面的なアップグレード
AMDのコア製品の1つとして、AMD EPYCサーバーCPUは全面的なアップグレードを迎えている。
コードネーム「トリノ(Turin)」の第5世代AMD EPYCサーバーCPU(AMD EPYC 9005シリーズCPU)は「Zen 5」コアアーキテクチャを採用し、SP 5プラットフォームに対応し、最大192コア、最高周波数5 GHzを提供し、AVX 512命令セットは完全な512ビット幅のデータパスをサポートする。
AMDによると、AMD EPYC 9005はAI向けの先進CPU。AMD EPYC 9005は、従来のハードウェアに比べてラック数を大幅に削減しながら同等の整数演算性能を実現し、占有される物理的空間、消費電力、必要なソフトウェアライセンス数を大幅に削減することができ、新しいまたは増加したAIワークロードのためのスペースを解放することができます。
AMDはまた、AMD EPYC 9005は優れたAI推論性能を備えていると述べた。第5世代AMD EPYC 9965 CPUを2つ実行するサーバは、前世代製品と比べて2倍の推論スループットを提供します。
AMDシニアバイスプレジデント兼サーバ事業部のDan McNamaraゼネラルマネージャーは、「AMDはデータセンター市場のニーズを満たすことができることを証明し、クラウド、企業、AIのワークロード要件を満たすために十分なデータセンターのパフォーマンス、効率、ソリューション、機能のベンチマークを顧客に確立した」と述べています。
Instinct GPUは着実に前進している
AI計算力の重要な担体として、AMD Instinct GPUも更新反復を迎えている。また、AMDは2025年と2026年のGPU製品ルート計画を発表した。
AMD Instinct MI 325 Xは第3世代AMD CDNAアーキテクチャに基づいて構築され、256 GB HBM 3 Eメモリと6 TB/秒のメモリ帯域幅を持ち、驚くべき訓練と推論の性能と効率をもたらし、AI性能の新基準を確立した。AMDが発表したデータでは、AMD Instinct MI 325 Xは、複数のモデルの推論分野ではH 200より優れている。
AMDによると、AMD Instinct MI 325 Xは現在2024年第4四半期に出荷される見込みで、デル、ジャガ、HP、レノボなどのパートナーのシステム全体、インフラストラクチャソリューションは2025年第1四半期から発売される。
将来の製品レイアウトでは、AMD CDNA 3アーキテクチャに基づくアクセラレータよりも、AMD CDNA 4アーキテクチャに基づくAMD Instinct MI 350の推論性能が35倍向上する。また、AMD Instinct MI 350は最大288 GBのHBM 3 Eメモリを搭載でき、2025年後半に発売される見込みです。
AMDはまた、AMD CDNA Nextアーキテクチャに基づくAMD Instinct MI 400の開発において大きな進展を遂げており、2026年の発売を計画していると述べた。
AIネットワークのパフォーマンス向上
現在、AIネットワークは、AIインフラストラクチャにおけるCPUとアクセラレータの有効活用を確保するために重要である。
AMDは次世代AIネットワークをサポートするために、広範囲に展開されているプログラマブルDPUを使用して大規模コンピューティングをサポートしています。このAIネットワークは、データと情報をAIクラスタに転送するフロントエンドと、アクセラレータとクラスタ間のデータ転送を管理するバックエンドの2つの部分に分けることができる。そのため、AMDはフロントエンド向けのAMD Pensando Salina DPUと、バックエンド向けのAMD Pensando Pollara 400を発売した。
AMD Pensando Salina DPUは、世界で最も高性能でプログラム可能性の高い第3世代DPUの1つであり、前世代製品と比べてパフォーマンス、帯域幅、規模が2倍に向上しています。AMD Pensando Salina DPUは400 Gのスループットをサポートし、高速なデータ転送を実現することができ、AIフロントエンドネットワークにおける重要なコンポーネントであり、データ駆動のAIアプリケーションのために性能、効率、安全性、拡張性を最適化する。
Pensando Pollara 400は業界初のUEC-ready AI NIC(超イーサネット連合規格に準拠したAI NIC)であり、次世代RDMAソフトウェアとオープンなネットワーク生態をサポートし、バックエンドネットワークにおいてアクセラレータ間のパフォーマンスがリードし、拡張性があり、効率的な通信を保証することができる。
発売時期については、AMD Pensando Salina DPUとAMD Pensando Pollara 400が2024年第4四半期に顧客にサンプルを提供し、2025年上半期に発売される予定です。
AMD執行副社長兼データセンターソリューション事業部のForrest Norrod社長は、「新しいAMD Instinctアクセラレータ、EPYCプロセッサ、AMD Pensandoネットワークエンジン、オープンなソフトウェア生態、これらをAIインフラストラクチャに統合する能力により、AMDは世界一流のAIソリューションを構築し、展開するための重要な専門知識をすべて備えている」と述べています。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|www.LogoMoeny.com

GMT+8, 2024-12-2 14:23 , Processed in 0.091722 second(s), 8 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表