图片来源:视觉中国
国内AI大模型行业如同竞争激烈的电商一样,打起了“全网最低价”战争。
5月21日上午,阿里云官方微信号以标题《降价,立即生效!》的一篇推送宣布旗下大模型通义千问降价。其中,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。
仅仅大约四个小时后,上周还表态“使用大模型不应该只看价格,更要看综合效果”的百度,也紧随其后发布一篇仅改了两个字的官方推送《免费,立即生效!》,宣布旗下大模型文心一言的两款入门级产品ERNIE Speed和ERNIE Lite直接免费,干脆跳过了降价阶段。
就在两周前,阿里云刚刚发布了通义千问2.5,并号称是超越了GPT-4 Turbo的最好用的中文大模型,但整场发布会绝口没提及降价事宜。
通义千问主力模型API输入价格直降97%的“跳楼价”,更像是一起针对竞争对手降价策略后的“应激反应”。
5月15日,字节跳动豆包大模型在火山引擎原动力大会上正式发布。价格也是这场发布会的亮点:C端用户的豆包APP可免费使用,豆包主力模型(小于等于32K)在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。
根据火山引擎现场公布的价格计算和对比,一元钱就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于三本《三国演义》。
“一元钱买125万Tokens,相当于三本《三国演义》”,而现在阿里云为通义千问新价格宣传使用的词汇也非常相似,“一元钱买200万tokens,相当于5本《新华字典》”。
“降价”也成为2024年5月份国内AI大模型行业的最大关键词。
在字节跳动豆包大模型之前,5月11日,智谱大模型官宣了新的价格体系:新注册用户可以获得额度从500万 tokens 提升至2500万 tokens,并且入门级产品GLM-3 Turbo模型调用价格从5元/百万Tokens降至1元/百万Tokens,降幅高达80%。
除了目前各家先后降价和免费的各种入门级大模型产品,对一些预算有限但也想尝鲜的企业来说,如果有自己的技术能力,还能选择Meta的Llama 3等开源模型可供使用。
而即便各家大模型厂商不得不跟进竞争对手的降价策略,只要有客户愿意使用,仍然能够得到客户授权的数据用于产品后续的推理训练。目前阶段,不管哪家的大模型产品,对更多用户真实场景数据的需求,是比本来就不多的商业化收入更重要的事。