“模型超市”越开越多:字节、阿里、腾讯竞相整合 大模型公司“管道化”博弈全面升温

《科创板日报》4月24日讯(记者 王耐)字节跳动火山引擎方舟Coding Plan近日正式上线 GLM-5.1,官方表示“对齐原厂满血能力,不限购”。在此之前,火山的Coding Plan长期仅有GLM-4.7等较老模型。此次更新不仅引入了GLM-5.1,同时集成了Minimax M2.7、Kimi k2.6、DeepSeek-V3.2等多款最新国产大模型

这意味着,开发者只需一份订阅费,即可同时调用多家头部模型。从市场反馈来看,这种“打包模式”极大地降低了开发者的试错成本。目前Lite套餐价格在每月40元,Pro套餐价格在每月200元,让不少开发者愿意“先买个占坑”。

智谱GLM-5.1本身在2026年4月初的一次更新中,已经展现出令人印象深刻的工程能力。在智谱发布的两个官方视频中,“8小时从零构建Linux桌面”、“655轮迭代,将向量数据库的查询吞吐提升到初始正式版本的6.9倍”,重新刷新了大众对于大模型“8小时有效执行”的想象。

记者实探开发者社区 多数用户表示“不耐用”

记者进入一个方舟Coding开发者交流群中,发现用户在分享体验感受的帖子之外,大量用户反馈了实际体验的落差。刷几页交流社区就会发现,投诉、申请售后退钱的帖子非常多,有不少网友直呼“感觉被骗”。

争议主要有两点:

一个是关于限额使用过快的问题。一位名为“哈基米”的用户发帖称“一个任务几轮对话 5小时限制就快用完了”,还有另一位网友发布了自己“5小时限额触发的原因”是因为账号在连续5小时内连续滑动窗口,实际请求数已超过6004次,超过了系统限额。

二是算力调度承压导致的体验下降。大量用户反映遇到429错误(请求过多),以及高峰期“首字延迟1分钟以上是常态”。有用户直言:“5小时限额触发太频繁,没法用来做正经开发。”

与此同时,在Coding Plan每月40元的低价背后,也隐藏着套餐内关于“一次调用请求”引向不同抵扣系数的”暗流”。比如一位用户在开发者交流群发布了“调用不同模型抵扣系数差异”的图片。比如豆包全系列、Qwen系列抵扣系数是1次,DeepSeek系列是2次,MiniMax-M2.7、Kimi-K2.6、GLM-5.1系列是5次。

这也反映出,“模型超市”的搭建并没有想象中容易,开发者被“性价比”吸引而来,但初期暴露出的算力调度等方面的短板,也让很多开发者尝试之后选择却步。这也暴露了“打包模式”初期的阵痛。随着用户的涌入,算力平台的承载能力面临挑战。如何在低价吸引与服务质量之间找到可持续的平衡点,将是火山引擎及跟进者需要解决的长期命题。

云厂商集体转向“模型超市” 分层固化初现

火山引擎Coding Plan的这次“整合式”更新,也并非孤立事件。

自2026年初以来,阿里云、百度智能云、腾讯云等主流云厂商均在推进多模型整合布局。比如阿里云作为行业先行者,较早推出多模型订阅套餐“百炼Coding Plan”。目前支持千问系列和kimi-k2.5、glm-5、MiniMax-M2.5等模型。目前Pro价格为每月200元,Lite 套餐自3月20日起已停止新购,4月13日起停止续费与升级。

腾讯云大模型Coding Plan订阅服务于2026年3月全面上新,支持 Tencent HY 2.0 Instruct、GLM-5、Kimi-K2.5、MiniMax-M2.5 等多个最新模型。百度千帆于2026年2月正式推出AI编码订阅服务Coding Plan,也是国内较早推出此类服务的云厂商之一。

“模型超市”模式,并非一家之选,而正在成为云厂商竞相布局的赛道。但撕开云厂商聚合策略的外衣,谁能提供更稳定的服务、更透明的额度规则、更灵活的容灾机制,谁能在编程之外,延展出更多企业级服务能力,续费率能不能跟得上,都成为新的竞争核心。

国际上,亚马逊 Bedrock、微软 Azure的模型聚合服务平台,与国内Coding订阅模式场景不同,但同属整合趋势。

整体来看,行业竞争也从“单一模型能力比拼”转向“平台整合能力+生态服务能力”的比拼,行业集中度将快速提升。

国信证券首席资产配置分析师王开告诉记者,虽然行业分化在加速,但整合期的判断可能为时稍早。“更准确地说,这是产业链分工的细化和迭代。模型厂商聚焦算法,云厂商聚焦工程交付,各自发挥主业优势。”他认为,无论其他云厂商是否跟进,竞争格局都将从单打独斗向生态位分化演变。

大模型公司 “管道化” 压力加剧?

所谓“管道化”,并非指模型公司消失,而是指其丧失产品溢价、用户连接权与话语权,利润向算力平台方转移,成为“被支配”的角色。

云厂商的聚合浪潮之下,“管道化”也正在成为悬在独立大模型公司头顶的达摩克利斯之剑。这场无声的博弈中,智谱AI、月之暗面(Kimi)、MiniMax等头部玩家,并未选择被动妥协,而是从基因中各自生长,给出了不同的突围路径。

智谱AI CEO张鹏在4月8日的公开对话中,他明确表示,智谱的终极目标从来不是成为一款“可被随意替换的调用工具”,而是构建全自治智能体(Autonomous Agent)。这一定位试图让智谱从“模型供应商”升级为“任务执行者”,从而绕过纯API管道的低价陷阱。

月之暗面(Kimi)则采取“分散布局+深耕长文本”的策略。同步接入火山引擎、阿里云等多家主流云平台,实现算力多源供给、不被单一渠道绑定,保障服务稳定性与成本可控。2026年4月推出的Kimi K2.6 采用混合专家(MoE)架构,标准上下文窗口达256K tokens。

MiniMax则将将核心资源投入到内容创作、智能客服、教育、企业服务、娱乐社交等垂直领域,尤其在游戏AI、数字人、多模态交互等场景重点布局,打造“云平台难以替代的定制化能力”。

大厂的平台整合会加速模型公司被“管道化”吗?国信证券首席资产配置分析师王开认为,需区分长短期视角。

“短期看,分发渠道被平台掌控、定价权部分让渡,模型厂商利润向入口方转移是商业规律。但长期而言,通用模型易同质化,金融、医疗、法律等垂直场景的深度学习模型,专业壁垒不是集中聚合就能抹平的。”他认为。

在应对被平台化风险方面,还可以参考OpenAI和Anthropic的策略,一方面强化直面终端用户的渠道,比如ChatGPT与Claude的独立运营本质是在建立绕过平台的用户连接。另一方面技术迭代速度与用户品牌认知是两条有效护城河,因此模型公司需要兼顾研发投入与产品化布局。

这场“管道化与平台化”的博弈终局,可能不是谁吃掉谁,而是分工的进一步清晰。云厂商做管道,模型公司做技术,双方在博弈中逐渐找到各自的生存边界。

至于谁吃掉谁,在目前这个阶段,还远未到故事的结局。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平