开“卷”!阿里降价 百度免费
llyyy2008
发表于 2024-5-21 19:13:56
3029
0
0
继阿里宣布通义千问GPT-4级主力模型降价97%后,百度智能云官微宣布,文心大模型两大主力模型全面免费,立即生效!
据悉,百度宣布免费的两款大模型分别为今年3月推出的两款轻量级大模型ERNIE Speed、ERNIE Lite,支持8K、128k上下文长度。
21日上午,阿里云刚刚宣布通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%,降价后约为GPT-4价格的1/400。据悉,本次通义千问降价共覆盖9款商业化及开源系列模型,涵盖Qwen-Long、Qwen-Max、Qwen1.5-72B等。
“输入”与“输出”
降价幅度有细微差别
仔细对比降价公告不难发现,此次阿里通义大模型的降价幅度在“输入”和“输出”上有细微差别。
对此,阿里相关负责人向记者解释称,因为很多用户会结合长文本对模型提问,所以模型输入调用量往往大于输出调用量。根据统计,真实的模型输入调用量一般是输出的8倍左右。“我们把客户使用量最大的输入tokens的价格大幅降下去,对企业来说更划算,可以更好地做到普惠。同时,把输入价格打到极致,也是希望让大家能真正把长文本用起来。”
以通义千问主力模型Qwen-Long为例,其上下文长度最高达千万,API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达到97%,降价幅度高于输出价格的90%(指降幅)。而刚刚发布的旗舰款大模型Qwen-Max,性能追平GPT-4-Turbo,其API输入价格降至0.04元/千tokens,降幅达67%,但输出价格暂时并未调整。
而此次百度文心大模型两大主力模型宣布“输入”“输出”价格全部免费,也有其背景原因所在。
据悉,此次免费开放的两款大模型ERNIE Speed、ERNIE Lite是百度今年3月最新发布的轻量级大模型,支持8K和128k上下文长度,其推出的目的就在于提高企业应用大模型的“效价比”。
相比超大规模参数的大模型,轻量级大模型的参数量更小,更便于客户针对特定使用场景进行模型精调,更容易达成使用效果预期,同时实现“减量不减效”,节约不必要投资。
具体来看,ERNIE Speed在推理场景下拥有最高128k的上下文长度,在处理知识问答等任务时,能够更好的处理上下文的依赖关系,生成更加连贯和准确的预测或回答。同时,针对特定场景可以将ERNIE Speed作为基座模型进行精调,模型效果可以追平甚至超过旗舰级大参数规模大模型,效价比大幅提升。
相比ERNIE Speed,ERNIE Lite的参数量则更小,也更加适合搭载在低算力的AI加速卡上处理推理任务,在兼顾模型效果与推理性能的同时,大幅降低客户落地应用成本。
此外,ERNIE Lite在情感分析、多任务学习、自然推理等场景下的应用效果提升了20%。推理调用成本大幅下降了53%。
降价与免费背后
大模型深入构建企业级应用生态
此前的5月15日,字节跳动宣布其自主研发的豆包主力模型在企业市场的定价,比行业便宜99.3%,一元钱就能买到豆包125万Tokens,大约是200万个汉字,相当于三本《三国演义》,被认为是掀起了国内大模型市场的“价格战”。
随着大模型性能逐渐提升,AI应用创新正进入密集探索期,更多的企业和机构也早已摆脱了盲目的技术崇拜路线,往往要综合考量大模型的使用效果、性能以及成本,即“效价比”,这对于大模型在企业和生态端的落地也起到了直接作用。
而此次通义、文心和豆包的降价,无不针对企业级应用市场。
互联网评论人士王如晨表示,今年国产大模型竞争确实有些气氛了,也包括与海外OpenAI的竞争,但价格战不是最主要的。
王如晨认为,国产大模型今年开始强化应用,尤其推进生态建设,像阿里强调开源路径、所谓最开放的云,它的云内涵已经扩充,AI也成为云服务的重要组成。但现阶段,行业客户生存有压力,AI落地成效还在逐步验证。如果上来就是叠加服务,价格没有优惠,客户响应动力不足。所以无论是在公共云还是大模型层面,阿里相继提出降价,让客户能直接感受到成本的节约。
当然,大模型的降价也离不开云平台、大模型厂商在算力、推理等成本方面的下降曲线支撑,这也为阿里、百度等龙头公司的大模型降价创造了条件。
正如阿里云智能集团资深副总裁、公共云事业部总裁刘伟光所说:“今天我们看到非常多的场景对推理提出了更高要求,当模型尺寸和上下文长度不断增大,应用场景逐渐多样,推理资源的规模正变得越来越大、场景复杂度越来越高。这时候,模型的推理效果、性能和成本就成了一个‘不可能三角’,很难都达到最优。”
在刘伟光看来,推理的优化,对很多企业来说,不是也不可能成为核心的研究方向。而对于阿里云来说极为重要,甚至可以说是“饭碗”。大规模推理集群优化就是阿里云练就的核心能力,是打破不可能三角的杀手锏,是其能为大家提供效果好、性能优、成本低的推理服务的保障。“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计未来大模型API的调用量会有成千上万倍的增长。”
王如晨坦言,大模型降价的背后是推动云业务的增长。云计算如果没有更大规模,SaaS生态又很小,云平台利润指标不会好到哪里。从表面来看,降价的是大模型,最后竞争还是要体现在幕后的云计算平台,从而推动增长。这也是刘伟光更加强调“公共云+API将成为企业使用大模型的主流方式”的底层原因所在。
上海人工智能产业研究院院长朱兆颖则表示,对于大模型厂商而言,降价是吸引用户的重要手段,但长期来看,只有通过技术创新和产品优化,才能真正保持竞争优势。不只要“卷”价格,更要“卷”技术,“卷”产品,全方位的“卷”,才能找到新出路。
CandyLake.com is an information publishing platform and only provides information storage space services.
Disclaimer: The views expressed in this article are those of the author only, this article does not represent the position of CandyLake.com, and does not constitute advice, please treat with caution.
Disclaimer: The views expressed in this article are those of the author only, this article does not represent the position of CandyLake.com, and does not constitute advice, please treat with caution.