找回密码
 立即注册
搜索
热搜: Apple Tesla Amazon
查看: 258|回复: 0

英偉達が「スーパーAIチップ」を発表H 200は来年第2四半期に供給開始予定

[复制链接]

23

主题

0

回帖

93

积分

注册会员

积分
93
发表于 2023-11-14 18:37:01 | 显示全部楼层 |阅读模式

黄仁勳、またも「装備」アップグレード。11月14日、毎日経済新聞の英偉達記者は、現地時間11月13日、英偉達がNVIDIA HGX H 200(AIチップモデル、以下「H 200」と略称する)を発売すると発表したことを英偉達から明らかにした。H 200は初のHBM 3 e GPU(メモリ、これまでより速度が速く、容量が大きい)を採用し、生成式AIと大言語モデルをさらに加速させるとともに、HPC(高性能計算)のワークロードのための科学計算を推進し、伝送速度4.8 TB/秒の141 GBメモリを提供でき、前世代アーキテクチャのNVIDIA 100に比べて容量が2倍近く、帯域幅が2.4倍増加した。
超大規模で高性能なコンピューティングのIan Buck副総裁によると、生成型AIとHPCアプリケーションによるインテリジェントな創造には、大規模で高速なGPUグラフィックスメモリを使用して大量のデータを高速かつ効率的に処理する必要がある。H 200が超高速NVIDIA Grace CPUに超高速NVILink-C 2 C相互接続技術を採用している場合、HBM 3 eを搭載したGH 200 Grace Hopperスーパーチップ、大型HPCとAIアプリケーション用に設計されたコンピューティングモジュールが構成されています。
規格から見ると、H 200は4ウェイと8ウェイのH 200サーバーボードをオプションで提供し、HGX H 100システムのハードウェアとソフトウェアと互換性がある。今年8月にリリースされたHBM 3 eを採用したNVIDIA GH 200グレイスホッパースーパーチップにも使用できる。これらの構成により、H 200はローカル、クラウド、ハイブリッドクラウド、エッジなど、さまざまなデータセンターに配置できます。1750億パラメータ以上の超大型モデルに対するLLMトレーニングや推論など、さまざまなアプリケーションワークロードに最高のパフォーマンスを提供できます。
アーキテクチャでは、前世代と比べて、NVIDIA Hopperアーキテクチャは性能の飛躍を実現し、例えば700億パラメータのLLM--Llama 2上の推論速度はH 100(英偉達AIチップ)より2倍近く向上した。
英偉達側によると、2024年第2四半期から世界のシステムメーカーとクラウドサービスプロバイダを通じてH 200を提供する。サーバーメーカーやクラウドサービスプロバイダも、同じタイミングでH 200を搭載したシステムの提供を開始する予定だ。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|www.LogoMoeny.com

GMT+8, 2024-11-30 14:54 , Processed in 0.093902 second(s), 8 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表