大模型价格战 没有最低只有更低?

tamoadmin 0

  来源:北京商报

  “1块钱可以买200万tokens,相当于5本《新华字典》的文字量。”听到阿里云智能集团资深副总裁刘伟光介绍通义千问降价详情时,业内人士窃窃私语“这是针对字节跳动吗?”5月21日上午,阿里云宣布通义千问主力模型Qwen-Long,API(应用程序编程接口)输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅***%,下午百度拿出两款主力大模型免费对外。

  一般来说,一个中文词语、英文单词、数字、符号计为1个token。全网比价的话,字节跳动旗下的豆包大模型更新了价格清单,“1块钱能买到豆包主力模型的125万tokens,相当于三本《三国演义》”,加上Kimi、智谱近期分别在变现和定价上的新动作,这场大模型价格战不亚于一场“6·18”。

大模型价格战 没有最低只有更低?
(图片来源网络,侵删)

  降价和免费

  “不能说是字节跳动拉动了价格战,在它之前智谱大模型还调整了价格呢”,从业者樊帆(化名)也说不上大模型厂商是何时开打价格战的,但他和行业观察者在5月21日都明显感受到了各家的火药味。

  “击穿全球底价”“性价比之王”,在刘伟光介绍通义千问大模型降价细节时,背景上出现了几个大字,配合着大模型Qwen-Long和同类产品的价格对比图。

  按照阿里云提供的信息,Qwen-Long是通义千问的长文本增强版模型,上下文长度最高达1000万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格直降90%至0.002元/千tokens。相比之下,国外的GPT-4、Gemini 1.5 Pro、Claude 3 Sonnet以及国内的Ernie-4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元。

  几个小时后,百度也发了大招,宣布文心大模型的两款主力模型ENIRE Speed、ENIRE Lite全面免费,即刻生效。根据官方介绍,ENIRE Speed是百度2024年最新发布的自研大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。ENIRE Lite是百度自研的轻量级大语言模型,适合低算力AI加速卡推理使用。这两款大模型均支持客户向大模型进行8K—128K内容量的提问+回答。在官宣免费的推文中,百度智能云将输入和输出价格都用红色标注为“免费”。

  向前倒推,字节跳动旗下的火山引擎在5月20日深夜更新了定价详情。根据火山方舟大模型服务平台公布的信息,按大语言模型后付费模式,即以tokens使用量(输入文本+输出文本)计费,每小时出账,按量后付费,其中Doubao-lite-32k模型的免费额度是50万tokens,推理服务输入价格是0.0003元/千tokens,输出价格是0.0006元/千tokens。

  最新技术才收费

  用低价吸引客户的不止阿里云、百度和字节跳动。北京商报记者登录腾讯云***发现,混元生文大模型hunyuan-pro、hunyuan-standard-256k等4个产品正在6.9折促销,混元生图大模型1000次、1万次、10万次***包的优惠力度分别是8折、7.5折、7折。

  还有更隐秘的信号。5月6日,幻方量化旗下DeepSeek发布第二代MoE(专家模型)DeepSeek-V2,API定价每百万tokens输入1元、输出2元(32K上下文),价格为GPT-4-Turbo的近百分之一。5月13日,智谱大模型开放平台上线新的价格体系,入门级产品GLM-3 Turbo模型调用价格下调80%。随后OpenAI推出的GPT-4o,价格为GPT-4 Turbo的一半,输入、输出每百万tokens分别收费5美元、15美元。

  回看国内,上周豆包大模型更新了价格清单,用1块钱买125万tokens,相当于三本《三国演义》,让大模型价格战出了圈。

  谈到此次大模型价格战,易观合伙人、易观企业数字化中心总经理张澄宇告诉北京商报记者,“大模型的发展已经超越了传统的摩尔定律框架,性能迭代速度非常快,通常每半年左右性能就会翻倍,并且这一周期仍在缩短,这是前所未有的。大模型的成本下降不仅依赖于硬件成本的降低,还涉及到算法优化和模型训练、部署技术的进步。例如,通过剪枝、量化和知识蒸馏等技术,可以显著降低计算复杂度和***消耗”。

  文渊智库创始人王超也将大模型的发展和摩尔定律类比,他认为“大模型一定会降价,只有最新的技术才能收费”。

  客户越多越吃亏?

  token,即自然语言模型处理文本的最小单位。“长文本只是大模型竞争的维度之一,用字典、西游记的文本量来比拼是营销手段,卷token的性价比实际上是无效的,应该卷多模态、识别、理解等。目前中国大模型都是赔钱营销,谁的用户规模大,谁亏损的更多。”王超告诉北京商报记者。

  针对大模型客户规模,北京商报记者分别向阿里云、百度智能云和火山引擎方面提问,截至记者发稿,阿里云和百度智能云未透露具体数据,火山引擎相关负责人告诉记者,“豆包大模型已经与手机、电脑、汽车、金融、消费等领域的头部厂商建立合作,但由于产品刚刚正式发布,还处于非常早期阶段,企业客户规模尚小”。

  “阿里云处在非常尴尬的位置,庞大的用户造成它在价格决策、补贴时没法像其他厂商一样灵活,即便它一再宣扬降价,但实际上很容易被船小好调头的对手超越。”王超向北京商报记者表示。

  张澄宇的观点是“价格竞争是动态变化的,大模型的核心客群不是价格敏感型用户。竞争关键在于谁能更好地平衡成本和用户价值”。

  对于Kimi尝试的“打赏”变现模式,业内人士多表示肯定,“这意味着大模型厂商正在探索多样化的变现方式,不仅局限于传统的会员订阅和API调用收费,还探索通过用户互动和增值服务实现变现,这有助于加速行业商业闭环的实现”,张澄宇说。

  结合正在升级的价格战,王超一针见血:“大模型一定会对C(用户)端收费。如果不敢收费,要么对自己的技术没有信心,要么对未来的判断失去了方向。打价格战,会让公司对C端收费越来越推迟,也会推迟公司造血功能,只能依赖公司的融资去获得客户。互联网免费后收费打法,不适合大模型竞争。”

  北京商报记者 魏蔚

标签: #模型

上一篇爱驰“复活”细节浮出:将通过SPAC模式登陆美股

下一篇当前文章已是最新一篇了