大模型变天 国内厂商纷纷推出“骨折价”

发布时间:2024-05-21 15:03:57 编辑: 来源:
导读 相信很多大家对大模型变天 国内厂商纷纷推出“骨折价”还不知道吧,今天菲菲就带你们一起去了解一下~.~! 5月21日 消息:近期,国内云服...

相信很多大家对大模型变天 国内厂商纷纷推出“骨折价”还不知道吧,今天菲菲就带你们一起去了解一下~.~!

5月21日 消息:近期,国内云服务厂商之间掀起了一场大模型降价潮,这场价格战的目的是为了快速抢占市场,实现商业化的快速落地。包括火山引擎、阿里云、智谱AI、面壁智能等在内的厂商和创业团队都参与其中。

智谱AI首先在 5 月 11 日宣布大幅降价,新注册用户获得的额度从 500 万tokens提升至 2500 万tokens,个人版GLM-3 Turbo模型产品的调用价格从 5 元/百万tokens降低至 1 元/百万tokens,降价幅度达到 5 倍。火山引擎随后宣布豆包Pro 32k模型定价为0. 8 厘/千tokens,比行业降低了99.3%,豆包Pro 128k模型定价为 5 厘/千tokens,比行业降低了95.8%。腾讯云也在 5 月 14 日更新了混元大模型的计费信息,降低了价格。

图源备注:图片由AI生成,图片授权服务商Midjourney

这场价格战的背后,是大模型厂商为了加快商业化落地的迫切需求。大模型研发成本越来越高,算力技术被美国垄断,中国面临算力荒,算力租赁服务费用上涨,导致大模型研发成本进一步提升。同时,大模型技术已经发展到一定程度,需要通过大规模商用来验证技术的成功。

大模型商业化的路径主要有两种:API调用和私有化部署。API调用是最常见的落地方式,但对需求量大的用户和行业来说,成本较高。私有化部署成本更高,大模型研发成本动辄成千上百万,甚至上亿。

为了降低成本,厂商通过提高大模型的训练效率、降低推理成本等方式来降本。例如,微软的AI supercomputing超级计算机可以提高大模型训练效率,盘古大模型采用稀疏+稠密架构降低训练成本,文心一言通过技术手段提升了大模型的推理性能和降低了成本。

大模型商业化的竞速中,阿里、腾讯、字节等厂商都在持续迭代大模型能力,并构建完整的生态,研发创新型AI产品。百度、阿里、字节等都采取了构建大模型平台的路径,提供自家和第三方开源大模型服务。开源成为加速大模型渗透、拓展商业化市场空间的重要方式。

大模型的商业化落地需要根据不同行业、不同业务场景进行微调,提供真正符合企业需求的服务。目前,各大模型厂商都在探索如何加快大模型落地,未来一段时间内,竞争将更加激烈,同时也将推动大模型技术进入新的发展阶段。

以上就是关于【大模型变天 国内厂商纷纷推出“骨折价”】的相关内容,希望对大家有帮助!

免责声明:本文由用户上传,如有侵权请联系删除!

热点推荐

精选文章