界面新闻记者 | 陆柯言
界面新闻编辑 | 文姝琪
4 月 23 日,腾讯正式发布混元 Hy3 preview 语言模型并宣布开源,这也是腾讯首席AI科学家姚顺雨入职近四个月后,交出的第一份成绩单。
据腾讯介绍,混元Hy3 preview是一个快慢思考融合的混合专家模型(MoE),总参数295B,激活参数21B,最大支持256K上下文长度。目前,该模型已在元宝、ima、WorkBuddy、CodeBuddy等腾讯内部产品中上线。微信公众号、腾讯新闻等产品也将陆续上线。

腾讯元宝中,Hy3 Preview已正式上线
据界面新闻了解,2026年2月,混元团队重建了包括预训练和强化学习在内的大模型研发基础设施,而Hy3 preview是重建后训练的第二个模型,也是混元迄今最智能的模型,在聊天、代码、智能体、数理推理、指令遵循、上下文理解等实用能力上实现了大幅提升。
业界的模型研发通常包括高质量数据准备、预训练、后训练和强化学习/精调。如果算上前期架构探索和后期评测优化,从0到1做一个完整的大版本周期大约6-12个月。从混元研发架构升级、AI infra基础设施重建到上线发布,Hy3 preview只用了不到三个月时间。
混元团队方面表示,在训练新模型时,团队思路是不盲目Scale Up(即通过堆更多参数来提升模型能力),而是将更多核心资源投入数据质量。Hy3 preview的总参数小于前一版本,但更“实际”。理论上,300B是能力与效率的最优平衡带。复杂推理、长上下文理解、指令遵循等能力在这个量级已经可以得到释放。
在成本上,300B级别的MoE模型经过量化后可实现单机部署,大幅降低了部署的硬件成本。
姚顺雨表示,Hy3 preview是混元大模型重建的第一步。
2026年1月,马化腾在公司年会上公开表示,腾讯在AI上“动作慢了”,认为问题可能在于基础设施不足,模型迭代频率和平台能力。 而在此后的年度业绩会上,腾讯总裁刘炽平也提到,腾讯正在重构混元团队组织方式和工作流程,重点提升数据质量,并重建预训练与强化学习基础设施。
几乎同时,腾讯解散了设立十年之久的AI Lab。一个背景是,腾讯AI研发团队长期分布在不同事业群,研究、工程与模型能力并未完全统一,协同成本较高。姚顺雨曾在内部强调,要坚决打破部门墙。
据晚点LatePost报道,姚顺雨也曾在内部会议上指出,过去的混元模型过度追逐榜单成绩,将打榜的语料放入训练集以致数据被污染,影响了在真实场景中的表现。他希望团队以后不要打榜,也不要盯着榜单做事。
因此,在Hy3 preview中,团队没有完全依赖行业通用的公开评测集,而是自建了50多个Benchmarks(评测基准,即用来衡量模型真实能力的标准化测试集)来评估模型的实际能力和落地性。另一方面,追求模型与腾讯内部业务的贴合,让模型在实际应用中学习进化。
姚顺雨表示,混元团队将通过这次发布获得全面的体验反馈,来进一步提升Hy3 preview正式版的实用性。此外,混元团队也在继续扩大预训练和强化学习的规模来提升智能上限,并通过和腾讯众多产品的深入Co-design(协同设计)来提升模型的实用性,并探索非同质化的模型能力。
混元团队还透露,在新的基础设施和技术理念的支撑下,更大尺寸的模型也已经在路上。
重建后的混元,面对的是一个全新的战场。两个月前,字节跳动先后发布了Seed 2.0大语言模型和新一代视频生成模型Seedance 2.0。此后持续高频更新。第三方研究机构QuestMobile显示,一季度豆包月活已达3.45亿,用户规模居国内AI应用首位。而在本月,阿里巴巴发布了Qwen3.6的多个版本。更早之前,阿里巴巴也还认领了近期“屠榜”的神秘视频生成模型HappyHorse。
另一个不可忽视的变量是DeepSeek-V4的发布。腾讯元宝曾凭借快速接入DeepSeek破圈,但对DeepSeek的依赖也一度让元宝陷入被动。据The Information报道,腾讯、阿里正在洽谈投资DeepSeek,目标估值超200亿美元,但腾讯方面并未对此回应。
腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生曾公开表示,主流大模型的能力差距正在逐步缩小,企业的核心需求已经不再是拥有最好的模型,而是如何通过系统工程把模型的能力最大程度发挥出来,真正拉开差距的是工程化交付能力。他认为,在同样的模型能力下,不同的大模型脚手架或Harness的设计,都对实际使用效果与tokens成本有很大的影响,而腾讯旗下丰富的场景入口、工具生态等都可以为此提供优势条件。
在那之前,这份混元重建后的第一份答卷,正在等待用户和市场的检验。
