找回密码
 立即注册
搜索
热搜: Apple Tesla Amazon
查看: 359|回复: 0

황인훈, 첫 DGX H200 시스템 OpenAI 직접 인도해 가장 먼저 혜택

[复制链接]

38

主题

0

回帖

142

积分

注册会员

积分
142
发表于 2024-4-25 14:27:07 | 显示全部楼层 |阅读模式

4월 24일, 엔비디아의 첫 슈퍼AI칩 DGX H200시스템이 인도되였다. 엔비디아의 창시자 CEO 황인훈이 직접 집까지 배달했으며 OpenAI가 첫 사용자로 되였다.
OpenAI 회장 겸 공동 창업자인 그레고리 브록먼 (Greg Brockman) 은 X 플랫폼에 이 소식을 발표하면서 황인훈 및 OpenAI CEO 샘 알트만 (Sam Altman) 과 함께 사진을 게재했다.
황인훈이 직접 OpenAI에 DGX H200을 납품한 것은 파트너십을 강화하는 상징적 제스처일 뿐만 아니라 첨단 하드웨어가 인공지능 기술을 추진하는 데 핵심적인 역할을 하고 있음을 입증한 것이다.황인훈은"AI, 컴퓨팅, 그리고 문명을 추진할 것"이라고 말했다.
이 두 업계 지도자가 계속 협력함에 따라 인공 지능의 혁신 잠재력은 무한하며 각 업계에 변화를 가져올 것으로 기대된다.
DGX H200은 엔비디아의 현재 최신이자 최첨단 양산 AI 칩으로 인공지능 기술 분야의 중대한 도약을 대표하고 있다.그것은 또한 현재 세계에서 가장 강력한 인공 지능 전용 칩 하드웨어입니다.이번 인도는 인공지능 연구 분야의 선두주자인 OpenAI에게 중요한 순간이다.
H200은 이전 세대 H100에 비해 성능이 크게 향상되었습니다.주요 업그레이드는 메모리 대역폭 1.4배, 메모리 용량 1.8배 증가, 총 메모리 대역폭 4.8TB/s, 메모리 용량 141GB를 포함한다.
이러한 성능 향상은 더 빠른 처리 속도와 더 효율적인 데이터 처리를 위한 HBM3e 메모리 기술 통합에 의해 주로 추진됩니다.이것은 더 크고 복잡한 인공 지능 모델을 훈련하는 데 매우 중요합니다. 특히 텍스트, 이미지 및 예측 분석과 같은 새로운 내용을 생성하는 생성 된 인공 지능 응용 프로그램의 모델입니다.
이안 벅 엔비디아 고성능 컴퓨팅 제품 부사장은 최근 프레젠테이션에서 DGX H200의 성능을 강조하면서 "DGX H200의 확장되고 빠른 메모리는 복잡한 생성형 AI 모델과 다른 고성능 컴퓨팅 애플리케이션을 훈련하는 동시에 GPU 사용 효율을 최적화하는 등 컴퓨팅 집약형 작업의 성능을 크게 향상시키기 위한 것"이라고 지적했다.
OpenAI에 있어서 DGX H200을 획득하는 것은 중요한 전략적 조치이며, 그들의 AI 연구 능력을 증강시킬 것이며, 특히 기대를 모으고 있는 GPT-5 대형 모델의 연구 개발을 추진할 것이다.H200의 능력 향상은 OpenAI로 하여금 인공지능 모델이 현재 도달할 수 있는 한계, 특히 데이터 처리의 속도와 복잡성 방면에서 돌파할 수 있게 할 것이다.
DGX H200의 영향은 여기에 국한되지 않습니다.그것의 도입 시장은 전체 인공 지능 업계의 진보를 촉진하고 연구자와 개발자가 더 많은 문제를 해결할 수 있도록 할 것이며, 이는 약물 발견, 기후 모델링 및 자동 운전 자동차 기술 등 분야에서 중대한 돌파를 가져올 것이다.
하이테크 업계는 고성능 인공지능 프로세서에 대한 전례없는 수요를 가지고 있으며, 이러한 맥락에서 H200의 수급 문제도 주목할 만하다.H100은 엄청난 수요로 인해 부족합니다.엔비디아는 글로벌 시스템 제조업체 및 클라우드 서비스 공급업체와의 협력을 통해 H200이 인도된 후 이를 피하기를 간절히 바라고 있다.
황인훈은 최근 재무제보 전화회의에서 GPU에 대한 높은 수요와 획득 문제에 대해"공평하게 분배해 자원의 낭비가 없도록 최선을 다하겠다"고 말했다.그러나 H200의 실제 인도 상황은 아직 지켜봐야 한다.
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|www.LogoMoeny.com

GMT+8, 2024-12-12 20:33 , Processed in 0.100814 second(s), 9 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表