|
대형 모델의 가격 전쟁은 거의 광란에 가깝다.
5월 21일 오전, 알리 클라우드는 통의천문 GPT-4급 주력 모델인 Qwen-Long의 가격을 97% 인하하고 1위안으로 200만 tokens를 살 수 있다고 발표했다.
이 행동은 꽤 바이트의 맛을 가리킨다.이에 앞서 바이트댄스는 5월 15일 호빵대모형을 발표하여 그 주력모형의 시장정가를 0.0008원/천tokens로 업종평균가격보다 99.3% 싸다고 선포했다.알리 클라우드가 가격을 인하한 후 API 입력 가격은 0.02위안/천tokens (텍스트 단위) 에서 0.0005위안/천tokens로 내렸다.
그러나 97% 의 가격 인하에도 불구하고 알리 클라우드의 가격 우위는 몇 시간 동안 유지되었다.21일 오후, 바이두 스마트 클라우드는 문심 대형 모델의 두 주력 모델이 전면적으로 무료이며, ERNIE Speed와 ERNIE Lite를 포함한 즉시 효력을 발생한다고 발표했다.
"한 곳만 가격을 내리면 모두 따라가야 한다. 그렇지 않으면 낙오할 것 같다."대형 모델 제조업체의 최근 가격 인하에 대해 시나웨이보 신기술 연구 개발 책임자 장쥔린은 제일재경 기자에게 말했다.격앙되고 참혹한 가격전 뒤에는 대형 모델 업체들이 따라갈 수밖에 없는 이유가 많다.
대형 모델이 가격 인하 붐을 일으키다.
사실상 이번 대형모형의 가격인하붐은 5월부터 실마리가 드러났다.
5월 6일, 환방량화 산하 DeepSeek (심층탐색) 은 2세대 MoE (전문가모델) DeepSeek-V2를 발표했다. API (인터페이스) 정가는 백만 tokens당 1원, 출력 2원 (32K 컨텍스트) 으로 GPT-4-Turbo의 거의 1% 에 달한다.
5월 13일, 지보대모형개방플랫폼은 새로운 가격체계를 개통하고 입문급 제품인 GLM-3 터보모형의 호출가격을 80% 인하하여 1원/백만tokens로 했다.이어 OpenAI는 GPT-4o 터보의 절반 가격인 GPT-4o를 출시하고 입출력은 백만 토큰스당 5달러, 15달러를 받는다.바이트 호빵 대형 모델이 이에 따라 가격 인하 붐에 합류했다.
알리 클라우드의 4가지 통의천문 상업화 모델과 3가지 통의천문 오픈 소스 모델의 서로 다른 정도의 가격 인하 및 문심 대형 모델의 양대 주력 모델의 전면 무료에 따라 대형 모델 제조업체는 자신의 이윤 공간을'착취'하고 있는 것 같다.
왜 큰 모델이 이렇게 큰 폭의 가격 인하를 할 수 있습니까?이에 대해 알리 클라우드 측은 공공 클라우드의 기술 보너스와 규모 효과에 따른 비용과 성능 우위 때문이라고 밝혔다.모델과 AI 인프라 두 차원의 끊임없는 최적화를 통해.
Canalys 클라우드 애널리스트 장일은 제일재경 기자에게 중국 고객층은 사실 가격에 특히 민감하며, 대형 모델 제조업체의 가격 인하는 더 많은 고객이 대형 모델을 사용하도록 유도하기 위한 것이라고 말했다.이와 동시에 많은 가격을 인하하는 대형모형제조업체도 클라우드제조업체로서 클라우드제조업체가 대형모형을 가격을 인하하게 하는 가장 본질적인 목적은 역시 클라우드소비를 견인하는것이다.
끊임없이 최저가를 뚫거나 심지어 무료의"급진적인"전략하에 대형모형제조업체의"진지강탈"의 결심은 단기리윤에 대한 갈망을 훨씬 초과했다.장일은 다음과 같이 분석했다. 중국제조업체 자체가 장사를 할 때 비교적 잘 채용하는 수단은 저가로 시장에 진입한후 다시 주량의 형식으로 원가를 전개하는것이다.현재 중국 B단 시장에서 실제로 AI를 사용하는 고객 비율은 높지 않다. 가격 인하를 통해 대형 모델 제조업체는 자사의 대형 모델을 사용하는 문턱을 낮추기를 원한다.
5월 21일, 알리 클라우드가 통의천문 GPT-4급 주력 모델의 가격 인하를 발표한 것에 대해 바이트댄스 화산 엔진 관련 책임자는 제일재경 기자에게 통의천문 대형 모델의 가격 인하를 매우 환영하며, 공동으로 기업이 더 낮은 비용으로 AI 전환을 탐색하고 대형 모델 응용 장면의 착지를 가속화하도록 조력한다고 대답했다.
가격 인하만으로는 부족하다
큰 모델의 가격 인하 뒤에는 그 배후의 계산력 원가의 하향도 업계 추세라는 점에 주목할 필요가 있다.
알리 클라우드는 탄력적인 AI 계산력 스케줄링 시스템과 백련 분산 추리 가속 엔진을 결합하여 알리 클라우드는 대규모 추리 클러스터를 최적화하고 모델 추리 원가를 대폭 압축하며 추리 속도를 가속화했다고 밝혔다.
텐센트 클라우드도 최근 대형 모델의 계산력 원가 하락 상황을 언급했다.텐센트그룹 부총재 장걸은 다음과 같이 밝혔다. 저단카드의 계산력이 낮고 현존이 작은 부족에 비추어 텐센트는 자체연구Angel훈련추리플랫폼을 사용하여 이구카드클러스터를 배치했는데 만억대 모형추리원가가 개원보다 70% 감소되였다.
화산엔진 총재 담대는 이에 앞서 바이트는 모형구조를 최적화하고 단기추리를 분산추리로 변경하며 혼합배치클라우드계산계산력 등을 통해 원가를 낮춘다고 밝혔다.DeepSeek 관계자는 즈후에서 DeepSeek-V2가 비용과 효과를 모두 고려하는 것은 기본적으로 모델 구조 혁신에 의존한다고 설명했다.
그러나 가격 인하 외에도 대형 모델 분야에는 더 많은 새로운 이야기가 필요하다.
알리 클라우드 스마트 그룹 선임 부총재, 공공 클라우드 사업부 총재 류웨이광은 오늘 대형 모델 가격 인하의 업계 추세를 언급할 때 가격 전쟁은 시장의 기본 원칙을 따라야 하며, 가격 인하는 반드시 시장에 보편적으로 혜택을 주어야 하며, 시장의 발전을 추진하는 것을 목표로 하여"유량으로 술수를 부리지 말아야 한다"고 말했다.
어떤 기업이 가격 인하 일반혜택 시장을 사용하여 시장 발전을 추진할 수 있습니까?류웨이광은 네 가지 원칙을 언급했다: 우선, 보편적 혜택 시장을 위해서는 모델의 기본 모델 능력이 충분히 앞서야 한다;둘째, 모델에 진정한 추리 자원이 있는지 봐야 한다;셋째, 현재의 모델은 많은 고객이 사용하고 있으며 상업적 가치를 창출할 수 있지 않습니까?마지막으로, 큰 모델이 이 회사의 주요 업무인지, 기업이 전략적 결정력이 있는지.
대형 모델 가격 전쟁, 텐센트의 가격 인하 여부에 대해 텐센트 클라우드 부총재, 텐센트 클라우드 스마트 책임자 우윈성은 최근 인터뷰에서 직접적인 반응을 보이지 않았다."우리는 요 며칠 업계의 상응하는 상황에 주목하고 있다.사실 우리는 많은 정력을 끝까지 투입하여 큰 모형의 능력을 향상시키고 사용자들이 진정으로 사용할 수 있도록 하는 것이다."오운생은 제일재경 등 매체에 이렇게 말했다.
"마지막 1킬로미터"의 문제는 여전히 큰 모형 앞에 가로놓여 있다.장일은 다음과 같이 분석했다. 대형모형의 가격인하붐은 단시일내에 일부 고객을 유치할수 있지만 장기적으로 볼 때 더욱 많은 사용자를 유치하려면 대형모형은 여전히 어떻게 더욱 많은 착지가치를 산생할것인가 하는 문제에 직면해있다.
큰 모델이 고객의 실제 비즈니스에 어떤 가치를 제공할 수 있습니까?AI의 생산력이 고객이 실제 과정에서 원가를 낮추고 기업의 효율과 실제 효익을 향상시킬 수 있는지, 이것이야말로 고객에게 있어서 또 다른 차원의 돈 절약이자 대형 모델의 상업화 착지 과정 중의 중요한 문제이다.국내든 국외든 큰 모형이 착지하여 가치를 산생하는 이야기는 여전히 완전하지 못하다. |
|