彻底爆了,再掀涨停潮!一股突发“闪崩”
2024-05-22
更新时间:2024-05-22 22:52:00作者:无忧百科
中国商报(记者 赵熠如)继字节跳动豆包大模型打响降价“第一枪”后,阿里、百度也纷纷宣布降价甚至免费。在加速大模型应用落地的同时,降价可能还会带来大模型行业洗牌。业内人士认为,大模型降价应普惠市场,企业应专注技术进步。
阿里百度接连降价
在字节跳动豆包大模型宣布实施行业最低价后,阿里云宣布将价格降到更低,而百度则直接宣布免费。
5月21日上午,阿里云宣布,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,用户花1元就可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1000万tokens长文本输入,降价后约为GPT-4价格的1/400,击穿全球底价。
此次降价是针对前几日字节跳动豆包大模型抛出的“行业最低价”而来的。
5月15日,字节跳动对外发布豆包大模型价格,豆包通用模型pro-32k版,模型推理输入价格仅为0.0008元/千Tokens;豆包通用模型pro-128k版,模型推理输入价格为0.005元/千Tokens。这意味着,1元就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于3本《三国演义》。
就在阿里云宣布大模型降价后不久,5月21日中午,百度智能云宣布文心大模型两大主力模型全面免费,且立即生效。这两大主力模型分别为今年3月推出的轻量级大模型ERNIE Speed、ERNIE Lite,支持8K和128K上下文长度。
值得一提的是,百度此前发表声明称,使用大模型不应该只看价格,更要看综合效果,只有让AI应用效果更好、响应速度更快、分发渠道更广,才能让人们切实感受AI为社会生产带来的便利。
加速大模型应用落地
业内人士认为,推理成本过高是制约大模型规模化应用的关键因素。而让更多的企业用得起大模型,并加速AI应用落地,成为此次大模型厂商轮番降价的原因之一。
阿里云智能集团资深副总裁、公共云事业部总裁刘伟光表示:“作为中国第一大云计算公司,阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计未来大模型API的调用量会有成千上万倍的增长。”
火山引擎总裁谭待在谈到字节跳动豆包大模型降价的原因时表示,市场对降价的呼声比较高,平台必须把试错成本做到非常低,才能让大家用起来。只有大的使用量,才能打磨出好模型来,也能大幅降低模型推理的单位成本。他认为,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。
关于阿里云大模型降价,字节跳动火山引擎相关负责人表示,非常欢迎通义千问大模型降价,共同助力企业以更低成本探索AI转型,加速大模型应用场景落地。
“字节跳动大模型降价后,阿里和百度几乎毫不迟疑地选择跟随,这显示出两家企业对自身技术实力及财力的自信,以及捍卫市场领先地位的决心。”资深电信行业分析师马继华对中国商报记者表示,“大模型领域领先企业的大幅降价,能够促进大模型应用的落地,让更多的创业公司能够用得起大模型。与此同时,降价也使得大模型产业在头部厂商集中发展,引发整个大模型市场的洗牌。”
“降价和免费策略可以让更多的中小企业和个人开发者使用大模型技术,从而加速技术的普及和应用场景的拓展。”DCCI互联网研究院院长刘兴亮对中国商报记者表示,“不过,大模型降价也会使一些无法跟进降价的小型厂商逐步退出市场,资源、资金和技术实力更为雄厚的大厂商将占据更大的市场份额。”
降价应普惠市场
“新兴数字技术在发展的过程中,都会经历多次降价,这既是行业的洗牌,也是行业的重塑。希望在大模型领域,降价是激励的开始,而不是内卷的开始;大模型企业应相互比拼技术进步,而非不遗余力地争夺市场。”马继华认为。
一位大模型行业从业人员告诉中国商报记者:“各家大模型厂商从本质上还是希望专注技术,努力提升大模型能力。各家厂商其实是在一致追赶海外的进度,并非在毫无意义地内卷。”
刘伟光在提起大模型降价的行业趋势时表示,“价格战”要遵循市场的基本原则,降价一定要普惠市场,以推动市场发展为目标,“不以流量博噱头。”
至于什么样的企业可以用降价普惠市场、推动市场发展,刘伟光提到了四个原则:首先,基础模型能力要足够领先;其次,模型要有真正的推理资源;第三,模型要有很多客户在使用,能够产生商业价值;最后,大模型要是这家企业主要的业务,且企业要有足够的战略定力。