大模型价格战谁会受益

tamoadmin 0

  来源:北京商报

  从讳莫如深到开诚布公,大模型价格战开打两个月,从业者主动或被动地参与其中,7月4日—6日举办的2024世界人工智能大会期间,大模型价格战依然是热门话题,但参与各方强调的不再是价格本身,而是一针见血到商业模式、可持续性……

  “近两个月,通义千问开源模型下载量增长2倍,突破2000万次”“当你处在激烈竞争的环境中,需要让业务效率比同行更高、成本比同行更低”“价格战由技术驱动,但不能过度”,7月6日,2024世界人工智能大会闭幕,科技大厂、创业公司的大模型卡位赛不会停,没有人肯定哪种商业模式跑得通,熬过了价格战当打之年,或许就有了答案。

大模型价格战谁会受益
(图片来源网络,侵删)

  应该但“不正常”

  5月初,人工智能公司DeepSeek高喊性能与GPT-4一致但价格只有百分之一的口号,打破了此前大模型“加量不加价”的默契。不久后,国内大模型公司各个变身价格“屠夫”,媒体将夸张的降价比例放进标题,从分到厘最后免费,一如网约车、团购大战那般轰轰烈烈。

  “大模型价格走低是非常正向的事,因为就应该降低。”MiniMax创始人兼CEO闫俊杰在2024世界人工智能大会上表态。自2024年开始,MiniMax对偏生产力的场景更加重视,与B(企业)端客户走的也越来越近,闫俊杰则频繁出现在各种场面,“对于大部分企业来说,大模型降价的好处是会有更多用户,在线时长、流量,产生更大价值。基于流量和价值找到一种好的商业模式”。

  根据摩尔定律,集成电路上可容纳的晶体管数量大约18—24个月增加一倍,性能将提升一倍。不管摩尔定律在大模型行业是否仍有效,技术升级——成本下降的真理不变。

  “价格下降是技术驱动,技术越来越好,成本越来越低,但过度就不好了”,智谱AI CEO张鹏话锋一转提到了迈克尔·波特的价值链理论。

  “真正的价值链应该是逐级的,大家往同一件事不断添加自己的价值,对外提供更好的服务,给自己创造更大的价值。相应地,大家创造的价值应该反向再传递回来,大家各自得到自己的那部分,这是一个正常的、合理的价值链。”他认为,“价格战阶段,用户肯定是得益的,但是不长久,这不是一个正常的商业逻辑。”

  有关商业模型

  在其他场合,张鹏也表达过对价格战的担忧。月之暗面创始人兼CEO杨植麟也把价格战和价值联系在一起,在他看来,大模型商业模式建立在用于推理的算力显著超过训练的算力,C(用户)端的推理成本显著低于获客成本,那时可能会产生新的商业模式,不会像现在在B(企业)端打价格战。

  创业公司和大公司、大公司和大公司之间,对商业可持续性的思考或许是两套逻辑,显而易见的区别是大模型to C是否免费,以及通过什么方式收费。

  不变的是,每个大模型入局者都希望将自己和生态伙伴织成一张网,互补也好抱团也罢,把to C、to B的通道搞得多多的。

  不久前,闫俊杰、杨植麟作为合作伙伴为钉钉站台,执行生态战略的钉钉宣布对所有大模型厂商开放,在通义大模型的基础上,和MiniMax、月之暗面等6家大模型厂商达成合作。钉钉将根据各家大模型的特点,基于场景选择不同的合作方,比如和月之暗面基于长文理解和输出能力,探索教育类应用场景。

  从供应侧到需求侧的传导很快。参与2024世界人工智能大会对话环节前,御风未来创始人兼CEO谢陵收到一家国外客户的需求——“石油管道漏油识别怎么解决”。御风未来需要跟人工智能相关企业合作,客户对飞行器最看重的就是AI功能,“我们肯定希望AI的价格降下来,(这样)我们能为更多的客户解决问题,能卖更多的飞机”,谢陵说自己是价格战的受益者。

  继续争

  大企业则通过各种数据较劲。2024世界人工智能大会期间,阿里云CTO周靖人透露,降价后大批客户在阿里云上直接调用大模型,近两个月,通义千问开源模型下载量增长2倍,突破2000万次,阿里云百炼服务客户数从9万增长至23万,涨幅超150%,客户包括一汽、微博、完美世界等。

  几乎同时,百度智能云隔空秀肌肉:大模型日均调用量突破5亿次、二季度环比增长150%;累计服务15万家企业用户、累计帮助用户精调了2.1万个大模型;帮助用户开发出55万个AI原生应用。百度还宣布文心大模型4.0 Turbo(ERNIE 4.0 Turbo)面向企业客户全面开放,输入输出价格分别是0.03元/千Tokens、0.06元/千Tokens。文心旗舰款模型ERNIE 4.0和ERNIE 3.5大幅降价;ERNIE Speed、ERNIE Lite两款主力模型持续免费。

  有关开源闭源的争论也没有偃旗息鼓的迹象。“很多人混淆了模型开源和代码开源的概念”,百度创始人兼CEO李彦宏开了话头,他认为模型开源只能拿到一堆参数,还要在做***T、安全对齐,即使是拿到对应源代码,也不知道是用了多少比例、什么比例的数据去训练这些参数,无法做到众人拾柴火焰高。

  “如果开源想追平闭源,它需要有更大的参数规模,这意味着推理成本更高、反应速度更慢。很多人拿开源模型来做改款,以为这样可以更好地服务自己的个性化需求,殊不知这就变成了一个孤本模型,既无法从基础模型的持续升级中获益,也没办法跟别人共享算力。”李彦宏分享了自己的论据。

  周靖人继续强调阿里云的开源立场,“两年前,我们在世界人工智能大会上发布通义大模型系列,当时我们公布,通义核心模型将开源开放。到今天,通义千问已经实现真正意义上的全尺寸、全模态开源,拉平了开源、闭源模型之间的差距”。

  北京商报记者 魏蔚

标签: #模型