|
엔비디아 GTC 대회는 나흘 동안 열기가 식지 않았다.
글로벌 소셜미디어에서 엔비디아 창업자 겸 CEO 황인훈은 참석자들이 앞다퉈 사진을 찍는 스타가 됐고, 엔비디아는 거의 AI의 대명사가 됐다.GPU 칩 아키텍처 Blackwell, 대형 모델 GROOT, NIM 마이크로 서비스는 새로운 인기 단어가 되어 지속적으로 도배되고 있습니다.
그 중 가장 주목받는 것은 Blackwell 아키텍처이다. 핫한 B200, GB200 칩은 모두 이를 기반으로 한다.황인훈은 강연에서 GB200 칩과 HGX B200 서버 마더보드 등을 가리키며 "조심해야겠다. 100억 달러 가치가 있다"고 말했다.
지표면 최강 AI 칩 뒤의 이야기는 시종 눈길을 끌었다. 황인훈이 얼마나 많은 체급의 자원을 동원하고 어떻게 최고의 인재 제대를 모았기에 현재의 하늘을 찌를 듯한 계산력 제국을 만들었는지 궁금했다.
엔비디아는 블랙웰의 구체적인 연구개발 금액을 공개하지 않았지만 한 조의 데이터를 측면으로 관찰할 수 있다.Forrester 부사장 겸 수석 애널리스트 Day는 21세기 경제보도 기자에게 황인훈이 이날 소통회에서 약 25000명이 3년 동안 공동 개발한 블랙웰의 투입 상황을 밝혔다고 밝혔다.
엔비디아에는 현재 약 3만 명의 직원이 있는데, 모든 것의 배후에는 초석이 역시 인재와 효과적인 조직이다.이전 세대 아키텍처인 호퍼는 엔비디아를 직접 데리고 2조 달러의 시가총액을 돌파했고, 업계도 차세대 블랙웰이 엔비디아를 위해 어떻게 역사를 창조할지 지속적으로 주목할 것이다.
"인월신화".
공개된 정보에 근거하여 우리는 엔비디아의 인력지출을 대체적으로 추산할수 있다.
엔비디아의 1인당 연봉 중위수는 약 21만7500달러이며, 이를 통해 매우 간단하고 대략적인 인건비로 계산하면 250002175003 = 1631250000달러, 즉 3년간의 인건비는 약 163억 달러이다.물론 연구개발 인력은 여러 직책을 겸하고 365일 일하지 않을 수도 있고 연봉에도 차이가 있지만 절반 수치를 취하더라도 인력 투입 비용은 이미 100억 달러에 육박하고 있다.
그리고 이것은 단지 인력의 부분일 뿐이며, 이로부터 볼 수 있듯이, 이러한 방대해 보이는 연구 개발 비용 데이터는 사람을 척도로 할 때 자금 한도가 모두 합리적이다.업계인사도 줄곧 기자에게 엔비디아는 돈이 있고 안목이 있는 사람이 있다고 감개무량해했다.
"소프트웨어계의 대작'인간의 달 신화'(The Mythical Man-Month) 를 떠올리게 한다."한 IT 베테랑 종사자는 21세기 경제보도 기자에게"'인간의 달 신화'는 기술 고수인 프레데릭 P. 브룩스가 쓴 소프트웨어 공학의 고전 대작이다. 전 세계 소프트웨어 업계에서 가장 유명한 책이다. 한 번도 없다. 이 책은 신화를 말하는 사람과 소프트웨어를 얼마나 적게 쓰는지를 계산하는 것이다.
이런"인간의 달"개념계산사유도 과학기술계에 보급되였다. 황인훈은 줄곧 엔비디아가 소프트웨어회사라고 강조해왔는데 사실상 현재 소프트웨어와 하드웨어의 일체화는 갈라놓을수 없다.요 몇 년 동안'청부업자'황인훈은 한 연구개발 인원을 이끌고 엔비디아의'인월 신화'를 창조했다.
"인월신화" 에 따르면 사람과 달은 소프트웨어업종의 연구개발의 두 기층도량으로 되였다. 사람은 기술로동자의 원가와 규모를 대표하고 달은 소프트웨어가 시장경쟁이 치렬함에 직면하여 투입해야 할 시간을 대표한다.사람과 시간을 지향하여 그 위대한 소프트웨어 개발 시스템이 얼마나 많은 인건비를 필요로 하는지를 묘사하고, 과학적인 방법으로 사람의 원가를 계량화한다.
25000명, 3년 36개월, 엔비디아는 차세대 아키텍처인 블랙웰을 반복해 왔으며, 올해 제품 출시와 함께 2025년에는 시장의 주류가 될 것이다.그리고 새로운 아키텍처도 이미 연구 개발의 길에 있으며, 새로운 사람, 달, 신화가 또 시작될 것이다.
배후의 기술진도 지속적으로 확대되고 있다.연구개발 인력 비율로 볼 때 2024년 엔비디아에는 29600명의 직원이 있으며 이 중 22200명이 연구개발에 종사해 전체 직원의 75% 를 차지한다.2023년 R&D 인력도 1천9532명으로 74.5%에 달한다.
연구개발 인력이 끊임없이 증가하는 동시에 엔비디아의 연구개발 투입도 증가하고 있다.중타이증권에 따르면 2005년 AMD의 연구개발비는 11억 달러로 엔비디아의 3.2배 정도였지만 2022년에는 73억4000만 달러 (2023회계연도 대응) 로 AMD의 1.47배에 달했다.2023년까지 연구 개발 금액은 86억 8천만 달러로 계속 증가한다.
"칩 말고 데이터 센터 판매"
B100에 앞서 엔비디아의 A100과 H100은 이미 민간에서 명성을 떨쳤다. 한편으로는 미국 수출 규제의 전형이자 다른 한편으로는 ChatGPT 훈련 능력의 핵심 칩이다.국내에서는 투자자부터 프로그래머까지 모두 사람을 만나면 반드시 A100과 H100에 대해 이야기하는데 계산력초조감은 새로운 초조류형으로 되였다.아마도 엔비디아의 그래픽 카드처럼 네가 매일 듣는 전자 제품은 없었을 것이다. 그러나 또 올라갈 필요가 없다.
이제 Blackwell GPU가 출시됨에 따라 중국 시장은 필연적으로 관심사 중 하나가 될 것이다.이에 대해 황인훈은 언론과의 인터뷰에서"중국 시장을 대상으로 L20과 H20 칩을 출시했으며, 중국 등 지역의 고객을 위해 최선을 다하고 있다"고 말했다.
그는 정책의 규제에 대해"우선 정책에 대한 이해를 확보해야 한다"며"둘째는 가능한 한 공급망 근성을 강화하는 것"이라고 말했다."우리가 이 부품들을 DGX (AI 슈퍼컴퓨터) 로 배치할 때 수십만 개의 부품이 필요한데, 그것들은 세계 각지에서 왔다.물론 그 중 많은 것이 중국에서 왔고, 세계 공급망은 상당히 복잡하다"고 황인훈은 말했다.
엔비디아는 동시에 새로운 산업 사슬의 경쟁 관계에 직면해 있다. 한편으로는 클라우드 공장 상인 대고객들이 스스로 AI 칩 개발을 서두르고 있고, 다른 한편으로는 엔비디아 자체도 클라우드 서비스를 출시하여 서로 다른 코스에서 교차하고 있다.
그러나 이 둘은 비즈니스 모델에 대해 다른 전략을 가지고 있다.예를 들어 황인훈은 엔비디아는 칩을 판매하지 않고 데이터센터를 판매한다고 강조했다.그도 엔비디아의 기회점을 데이터센터로 향했다."GPU를 생산하면 GPU를 만드는 사람도 많을 것이다. GPU 시장은 우리가 추구하는 데이터센터 시장과 다르다.전 세계 데이터센터 시장은 대략 2500억 달러 정도인데, 지금은 빠른 속도로 컴퓨팅을 가속화하고 있으며 성장하고 있다. 이것이 우리의 기회"라고 말했다.
이것은 엔비디아가 현재 단순한 칩 하드웨어가 아니라 전체 계산력 솔루션을 판매하고 있다는 것을 의미한다.그래서 그는 엔비디아의 총운영비용 (TCO) 이 우세하다고 말해왔다. 경쟁사의 칩이 무료라도 결국 계산하면 싸지 않다.
엔비디아가 내놓은 클라우드 서비스도 솔루션일 뿐이다."엔비디아가 엔비디아 클라우드 서비스 DGX 클라우드를 출시했지만, 우리의 전략은 여전히 클라우드 서비스 공급업체와 협력하여 우리의 클라우드를 그들의 클라우드에 넣는 것이다.엔비디아는 클라우드 컴퓨팅 회사가 되지 않을 것이며, 우리의 목표는 소프트웨어 구축을 통해 전 세계 개발자와 클라우드 서비스 공급업체가 엔비디아의 아키텍처를 채택하여 제품을 구축하는 것"이라고 말했다.
엔비디아와 클라우드 업체의 관계에 대해 다이는 기자에게"경쟁은 동시에 상호 보완적이다. 예를 들어 DGX 아키텍처는 AWS에 있다.현재 협력의 매출은 경쟁의 손실보다 훨씬 크다. DGX는 주요 계산력 교부 형태 중 하나이다.현재 엔비디아는 통일된 방식, 다른 경로를 통해 인공지능 기술 혁신에 대한 계산력 범재적 공급을 실현하고 있다"고 말했다.
기업 간의 업무가 교차하고 융합됨에 따라 산업의 경쟁 관계도 변동 중이다.
합종연횡
황인훈의 견해에 의하면 AI는 새로운 산업혁명을 일으켰고 아직 시작단계이다. 그는 산업계에 함께 가입하고 준비를 잘할것을 호소했다.
GPT, Sora, Claude, Lama 등 큰 모델이 계속 반복되면서 엔비디아나 인텔, AMD, 화웨이 등 AI 칩에 대한 산업계의 수요를 끌어올려 새로운 성장점을 발굴하고 있다.
엔비디아는 원래의 기초 위에서 장벽을 더욱 강화했다. Blackwell GPU는 더 말할 필요가 없다. 그리고 두 가지 방면의 동작이 주목할 만하다.첫째는 소프트웨어 제품의 완비이고, 둘째는 산업 사슬과의 긴밀한 협력이다.
우선, 엔비디아도 소프트웨어 회사라는 것을 주의해야 한다. 공식 홈페이지 제품 메뉴 아래에는 두 개의 디렉터리, 하드웨어와 소프트웨어만 있다. 소프트웨어 디렉터리는 하드웨어보다 더 길다.황인훈의 멀리 내다보는 점은 하드웨어 회사가 하드웨어를 만들 수 없고 생태를 해야 한다는 것을 알고 있다는 점이다. 생태의 다른 한 손은 CUDA와 같은 소프트웨어다.
CUDA는 계산력 세계의 Linux + Windows라고 할 수 있다. CUDA는 커뮤니티 개발자, 광범위한 비즈니스 애플리케이션, 클라우드가 있다.현재 거의 모든 AI 칩은 CUDA에 적합할 것이며, CUDA라는 해자 밖에서 엔비디아는 소프트웨어를 구축하기 위한'AI 파운드리'(AI 파운드리) 라는 생성식 AI를 위한 새로운 장벽을 세우고 있다.
황인훈은"엔비디아가 AI계의 파운드리를 해야 한다"며"3대 핵심 기둥은 NIM 마이크로서비스 (추리 플랫폼), NEMO 마이크로조정 서비스, DGX 클라우드"라고 말했다.그 중 새로 추진된 NIM 마이크로 서비스는 개발자가 쉽고 빠르게 AI 애플리케이션을 구축할 수 있도록 미리 훈련된 모든 AI 대형 모델이 포함되어 있으며, NEMO는 도구로서 대형 모델을 미세하게 조정하고 수정할 수 있으며, DGX Cloud는 계산력 인프라를 제공한다.이것들은 모두 미래에 응용을 개발하는 방식을 바꿀 것이다. 프로그래머는 코드를 다시 쓰지 않고 NIM의 각종 마이크로서비스를 빌어 핵심 단계를 빠르게 완성할 수 있다.
한편 엔비디아도 공급망과의 관계를 더욱 강화하고 있다. 특히 주목받는 것은 TSMC, 삼성, SK하이닉스다.현재 TSMC의 CoWoS 첨단 패키징 및 스토리지 공장의 HBM (고효율 메모리 칩) 은 GPU 양산 규모에 영향을 미치는 병목 현상이기 때문이다.
황인훈도 언론에 "올해 우리는 코WoS에 대한 수요가 매우 크다"고 말했다. TSMC는 160억 달러를 투자해 첨단 패키징 공장을 새로 지을 계획이며, 올해 코WoS 생산능력 목표는 월 3천5000개의 웨이퍼, 2025년 말에는 월 4천4000개로 다시 높일 계획인 것으로 알려졌다.새 공장이 가동됨에 따라 TSMC는 CoWoS 생산 능력을 지속적으로 향상시키고 있습니다.
첨단 패키징 외에도 고성능 스토리지에 대한 AI의 수요가 증가하면서 HBM이 지속적으로 인기를 끌고 있다.현재 삼성, SK하이닉스는 모두 HBM 제품 생산 확대를 가속화하고 있다.
TrendForce 집방 컨설팅 데이터에 따르면 2024년 말까지 전체 DRAM 산업 계획 생산 HBM TSV의 생산능력은 전체 DRAM 생산능력의 약 14%, 공급위는 원년에 약 260% 성장할 것으로 예상된다.또 2023년 HBM 생산액이 D램 전체 산업의 약 8.4% 를 차지했으며 2024년 말까지 20.1% 로 확대될 예정이다.
"HBM은 매우 복잡하고 높은 부가가치를 가지고 있으며, 우리는 이 사업에 많은 자금을 투자한다.HBM이 DDR5라고 생각하지 마라. 이것은 완전히 다르다. 그 DDR 메모리는 미래에 모두 HBM이 될 것이다. 엔비디아가 성장하면 그들도 함께 성장할 것이다."황인훈은 삼성과 하이닉스와의 협력이 좀 더 긴밀해지기를 희망한다고 말했다.
강호를 제패한 엔비디아는 여전히 끊임없이 자신을 진화시키고 공급망을 강화하고 있음을 알 수 있다.그리고 새로운 여정, 새로운 경쟁도 이미 막을 올렸다. B100 시리즈 이후나 X100, GX200 등 제품을 위해 새로운 인월 이야기가 열리고 있다. |
|