【CNMO科技消息】近日,微博AI推出了开源大型语言模型(LLM)——VibeThinker-1.5B。据CNMO了解,该模型拥有15亿参数,在数学推理与代码生成任务中却展现出超越6710亿参数竞品的性能。目前,VibeThinker-1.5B可通过Hugging Face、GitHub及ModelScope平台免费开放下载,供开发者与研究机构使用。

VibeThinker-1.5B模型在数学和代码任务上表现出色,达到了行业领先的推理性能,甚至超越了体量达6710亿参数的竞争对手DeepSeek的R1模型。该模型还能与Mistral AI的Magistral Medium、Anthropic的Claude Opus4和OpenAI的gpt-oss-20B Medium等多个大型模型抗衡。

值得一提的是,VibeThinker-1.5B在后期训练中仅花费了7800美元的计算资源,这一成本远低于同类或更大规模模型所需的数十万美元甚至数百万美元。

VibeThinker-1.5B采用了一种名为“谱-信号原则”(Spectrum-to-Signal Principle,SSP)的训练框架,该框架将监督微调和强化学习分为两个阶段。第一个阶段注重多样性,第二个阶段则通过强化学习优化最优路径,使得小模型也能有效探索推理空间,从而实现信号放大。
