在全球大模型竞速日益激烈的背景下,蚂蚁集团旗下的百灵大模型再次发力,正式推出了名为 Ling-2.6-flash 的全新 Instruct 模型。这款模型凭借极高的“智效比”,在人工智能领域引起了广泛关注。

从技术参数来看,Ling-2.6-flash 的表现堪称均衡。该模型的总参数量达到了 104B,而实际运行中的激活参数仅为 7.4B。这种设计思路显然是在追求性能与效率之间的最优解。在国际权威机构 Artificial Analysis 的最新评测数据中,Ling-2.6-flash 展示了令人惊叹的能效表现:完成同等任务仅消耗了 15M tokens。这一数据仅为 Nemotron-3-Super 等主流同类模型的十分之一左右,意味着开发者能以更低的资源成本获得同等级别的智能支持。

事实上,在该模型正式官宣之前,它已经以匿名形式上线进行了一周的压力测试。数据显示,在此期间其日均 tokens 调用量已迅速攀升至 100B 级别。这种“先试后发”的策略不仅验证了模型在真实高并发场景下的稳定性,也侧面反映出市场对高性能、高性价比模型架构的强烈需求。

业内分析认为,Ling-2.6-flash 的推出标志着大模型竞争正从单纯的“参数规模战”转向“智效比拼”的新阶段。通过优化参数激活机制,该模型在保持大规模知识储备的同时,极大降低了推理门槛。这对于需要大规模部署 AI 应用的企业而言,无疑提供了一个更具经济效益的替代方案。