蚂蚁集团旗下的百灵大模型今日宣布,正式开源其最新成员Ling-2.6-flash。该模型同步推出了BF16、FP8、INT4 等多个量化版本,旨在为全球开发者提供更灵活的硬件适配选择,进一步降低AI部署的门槛。
作为一款高性能模型,Ling-2.6-flash的总参数量达104B,其中激活参数为7.4B。此前,该模型曾以匿名身份在国际主流评测平台崭露头角,并根据开发者反馈完成了多轮针对中英文切换与代码适配的深度优化。

推理效率实现质变
在技术架构层面,Ling-2.6-flash引入了先进的混合线性架构,极大地释放了计算潜能。在主流的H20 显卡环境下,其推理速度最快可达每秒 340 个Token,吞吐能力远超行业同类竞品。
除了速度优势,该模型在智效比上表现惊人。评测数据显示,在完成同等复杂程度的任务时,Ling-2.6-flash消耗的Token数量仅为同级别模型的十分之一,有效降低了企业的长期运营成本。
定向增强智能体场景
针对当前火热的Agent应用,蚂蚁集团对模型进行了定向能力增强。无论是在复杂的工具调用,还是在长路径的任务规划中,Ling-2.6-flash都展现出了极强的逻辑执行力与任务成功率。
目前,该模型已在Hugging Face和ModelScope等主流开源社区同步上线。通过此次深度开源,蚂蚁集团希望能够赋能更多垂直领域的开发者,在保障数据隐私的同时,共同探索大模型应用的新边界。