첫 페이지 신문 본문

포스터 뉴스 기자 손걸 보도
5월 21일, 알리 클라우드는 메가톤급 뉴스를 던졌다: 통의천문 GPT-4급 주력 모델인 Qwen-Long, API 입력 가격은 0.02위안/천tokens에서 0.0005위안/천tokens로 97% 하락했다.1원에 200만 토큰스를 살 수 있다는 뜻으로'신화자전'5권의 문자량에 해당한다.이 모델은 최고 1천만 tokens의 긴 텍스트 입력을 지원하며, 가격 인하 후 GPT-4 가격의 약 1/400으로 전 세계 최저가를 뚫는다.
Qwen-Long은 통의천문의 긴 텍스트 증강판 모델로 GPT-4에 대한 성능과 문맥 길이가 최대 1천만 명에 달한다.수입가격이 0.0005원/천토큰스로 떨어진 것 외에 Qwen-Long 수출가격도 90% 에서 0.002원/천토큰스로 떨어졌다.이에 비해 국내외 업체인 GPT-4, Gemini1.5 Pro, Claude 3 Sonnet 및 Ernie-4.0의 천당 tokens 입력가격은 각각 0.22원, 0.025원, 0.022원 및 0.12원으로 Qwen-long보다 훨씬 높다.
통의천문의 이번 가격인하는 도합 9가지 상업화 및 개원계렬모형을 망라한다.얼마 전 발표된 통의천문 플래그십 모델 Qwen-Max는 API 입력 가격이 0.04원/천tokens로 67% 하락했다.Qwen-Max는 현재 업계에서 가장 뛰어난 성과를 보이고 있는 중국어 대형 모델로 권위 있는 벤치마크인 OpenCompass에서 GPT-4-Turbo와 성능이 동등하며 대형 모델 경기장인 Chatbot Arena에서 세계 15위권에 진입했다.
얼마 전 OpenAI의 Sam Altman은 GPT-4o의 능력을 입증하기 위해 Chatbot Arena 차트를 리트윗했다. 이 중 전 세계 상위 20개 모델 중 유일하게 세 가지 중국 모델이 통의천문이 출품됐다.
업계에서는 대형 모델의 성능이 점차 향상됨에 따라 AI 응용 혁신이 밀집 탐색기에 접어들고 있지만, 추리 원가가 너무 높은 것은 여전히 대형 모델의 규모화 응용을 제약하는 관건적인 요소라고 보편적으로 보고 있다.
우한 AI 지령자 정상회의 현장에서 알리 클라우드 스마트 그룹 선임 부총재이자 공공 클라우드 사업부 회장인 류웨이광은"중국 1위 클라우드 컴퓨팅 회사인 알리 클라우드가 이번에 대형 모델 추리 가격을 대폭 낮춘 것은 AI 응용의 폭발을 가속화하려는 것"이라며"앞으로 대형 모델 API의 호출량이 수천만 배로 증가할 것으로 예상한다"고 말했다.
CandyLake.com is an information publishing platform and only provides information storage space services.
Disclaimer: The views expressed in this article are those of the author only, this article does not represent the position of CandyLake.com, and does not constitute advice, please treat with caution.
您需要登录后才可以回帖 登录 | Sign Up

本版积分规则

我是来围观的逊 注册会员
  • Follow

    0

  • Following

    0

  • Articles

    39