첫 페이지 신문 본문

황인훈은 또'장비'를 업그레이드했다.11월 14일, ≪ 매일경제신문 ≫ 기자가 엔비디아로부터 알아본데 따르면 당지시간으로 11월 13일, 엔비디아 HGX H200 (AI 칩모델, 이하"H200") 을 출시한다고 선포했다.H200은 HBM3e GPU(메모리, 이전 속도보다 빠르고 용량이 더 크다)를 적용해 생성식 AI와 대언어 모델을 더욱 가속화하는 동시에 HPC(고성능 컴퓨팅) 워크로드를 위한 과학적 컴퓨팅을 추진해 전송 속도 4.8TB/s의 141GB 메모리를 제공할 수 있으며, 이전 세대 아키텍처의 NVIDIA A100에 비해 용량이 두 배 가까이 늘고 대역폭이 2.4배 증가한 것으로 알려졌다.
엔비디아의 초대규모 및 고성능 컴퓨팅 부사장 Ian Buck의 견해에 의하면 생성식 AI와 HPC 응용을 통해 지능을 창조하려면 반드시 대형, 쾌속적인 GPU 메모리를 사용하여 대량의 데터를 고속, 능률적으로 처리해야 한다.H200이 초고속 NVLink-C2C 커넥티드 기술이 적용된 NVIDIA Grace CPU와 함께 사용되면 HBM3e가 탑재된 GH200 Grace Hopper 슈퍼칩인 대형 HPC 및 AI 응용을 위한 컴퓨팅 모듈이 구성됩니다.
사양으로 볼 때 H200은 4소켓과 8소켓 H200 서버 마더보드를 선택할 수 있으며 HGX H100 시스템의 하드웨어와 소프트웨어와 모두 호환됩니다.올해 8월 출시된 HBM3e를 적용한 NVIDIA GH200 그레이스 호퍼 슈퍼칩에도 사용할 수 있다.이러한 구성으로 H200은 로컬, 클라우드, 하이브리드 및 에지를 포함한 다양한 데이터 센터에 배포할 수 있습니다.1750억 파라미터 이상의 초대형 모델에 대한 LLM 훈련 및 추론을 포함하여 다양한 애플리케이션 워크로드에 최고의 성능을 제공할 수 있습니다.
아키텍처는 이전 세대에 비해 NVIDIA Hopper 아키텍처가 700억 매개변수의 LLM-Llama 2에서 H100 (엔비디아 AI 칩) 보다 추리 속도가 두 배 가까이 향상되는 등 성능 향상을 이뤘다.
엔비디아 측에 따르면 2024년 2분기부터 글로벌 시스템 제조업체와 클라우드 서비스 제공업체를 통해 H200을 공급할 예정이다.서버 제조업체와 클라우드 서비스 공급업체도 같은 시간에 H200을 탑재한 시스템을 제공할 예정이다.
您需要登录后才可以回帖 登录 | Sign Up

本版积分规则

  • "영비릉: 2024회계연도 영업수입 동기대비 8% 감소"영비릉은 2024회계연도 재무제보를 발표했다.2024 회계연도 매출은 149억5500만 유로로 전년 동기 대비 8% 감소했습니다.이익은 31억 500만 유로입니다.이익률은 ...
    勇敢的树袋熊1
    그저께 19:43
    Up
    Down
    Reply
    Favorite
  • 11월 11일, 테슬라는 미국 주식 시세 전에 7% 이상 상승하여 주가가 2년 반 만에 최고치를 기록했다.전주만 보면 테슬라 주가는 4거래일 연속 상승해 이번 주 72.24달러로 29% 올랐다.주가 상승의 최대 수혜자는 단 ...
    崔炫俊献
    3 일전
    Up
    Down
    Reply
    Favorite
  • 계면신문기자 장우발 4분기의 영업수입이 하락한후 텐센트음악은 다시 성장으로 돌아왔다. 11월 12일, 텐센트음악은 최신 재보를 발표했다.2024년 9월 30일까지 이 회사의 3분기 총수입은 70억 2천만 위안으로 전년 ...
    勇敢的树袋熊1
    어제 15:27
    Up
    Down
    Reply
    Favorite
  • 11월 12일 소식에 따르면 소식통에 따르면 아마존은 무료스트리밍서비스 Freevee를 페쇄하고 일부 종업원과 프로를 구독서비스 Prime Video로 이전할 계획이다. 올해 초 아마존이 내놓은 몇 편의 대형 드라마의 효 ...
    度素告
    어제 13:58
    Up
    Down
    Reply
    Favorite
强绝商爸摇 注册会员
  • Follow

    0

  • Following

    0

  • Articles

    34