首页 > 最新动态 > 百灵大模型解构通用智能之路|CNCC
最新动态
百灵大模型解构通用智能之路|CNCC
2025-11-0720


10月25日,在CNCC 2025上,蚂蚁集团平台技术事业群副总裁、蚂蚁百灵大模型负责人周俊在主会场发表了《百灵大模型解构通用智能之路》主题演讲。


10月25日,在第22届中国计算机大会(CNCC 2025)上,蚂蚁集团平台技术事业群副总裁、蚂蚁百灵大模型负责人周俊在主会场发表了《百灵大模型解构通用智能之路》主题演讲,分享了百灵基础大模型的智能演进和技术创新,并且呼吁通过协同创新的方式,来攻克前沿技术研发中的难题

周俊表示,理想中的AGI(通用人工智能),应当具备深度推理能力,并能即时理解万物。从现实来看,当前行业正面临着一堵“效率之墙”,即高昂的模型成本、漫长的推理延迟,以及复杂的多模态理解难题。如何突破这堵墙,“百灵”提出的答案,并非依赖单一模型,而是一套端到端、可扩展的智能基础架构。对此,蚂蚁百灵自上而下构建了五层体系,依次为:应用生态 ← 语言/多模态大模型 ← 面向万亿模型的万卡集群 ← (混合)线性注意力引擎 ← 数据与算力基础设施,每一层都致力于提升最终的性能与效率。此外,蚂蚁百灵还探索了一项新的规模法则Ling Scaling Law,创新性地采用了高度稀疏的混合专家模型(Mixture-of-Experts, MoE)架构,并结合细粒度的专家路由与控制策略。该方案在提升模型智能上限的同时,显著降低了计算成本与推理延迟,为大模型的高效部署提供了可行路径。Ling Scaling Law也是蚂蚁百灵模型研发的核心技术思想

在演讲中,周俊重点阐述了百灵大模型研发的三项核心技术创新。首先是混合线性注意力架构,它有效融合了线性注意力机制的计算效率优势与传统注意力机制的精度优势。其次是模型推理效率与精准度优化,通过高质量数据直接训练具备内生推理能力,通过后训练引入演进式思维链(Evo CoT) 机制,拓展推理准确率和平均推理长度的帕累托前沿。第三是针对强化学习稳定性的LPO算法和IcePop(棒冰)算法、C3PO++。LPO算法(Linguistics-Unit Policy Optimization, LPO)将“句子”作为基本决策单元进行动作建模,从而确保语义连贯性与奖励信号的精准对齐,显著提升了训练稳定性与模型泛化能力。IcePop(棒冰) 算法有效校正了两个阶段间的分布差异,显著缓解了模型在长序列生成任务中常见的性能退化现象。C3PO++ 框架将复杂的推理过程分解为可管理的小批次任务,并利用持久化缓冲区实现任务状态的续传,大幅提升了 GPU 利用率和整体训练吞吐量。 

这些创新带来的实证效果显著:万亿级非思考模型Ling-1T在权威数学竞赛基准AIME 2025上,以更高的准确率超越了Gemini 2.5-Pro模型,同时将单次推理所需的Token数量降低了60%,成功实现了推理效率与精度的高效平衡。百灵万亿级思考模型Ring-1T在代码生成、逻辑推理等多项权威基准测试中,Ring-1T 达到了开源模型的领先水平,并在国际数学奥林匹克竞赛(IMO)题目求解中展现出银牌选手的实力。

谈到未来通用人工智能的形态和路径,周俊认为,实现通用人工智能的关键在于其理解我们所处多模态世界的能力,通过全模态交互连接数字世界与物理世界,有效拓展至视觉、语音乃至3D领域,从而达成更深层次的跨模态理解、更强大的跨模态生成能力、更优的泛化性能以及更高的计算效率。以蚂蚁开源的Ming-flash-omni-Preview为例,不仅显著提升了跨模态理解深度,更实现了卓越的跨模态创造能力,在涵盖12项任务的ContextASR基准测试中,该模型在所有指标上均达到最先进水平(SOTA)。这也是目前已知参数规模最大的开源全模态模型。

截止目前,蚂蚁百灵依托该智能基础架构开源了超过18款大模型,包含大语言模型Ling系列、思考模型Ring系列,多模态模型Ming系列,其参数规模覆盖百亿级、千亿级至万亿级,并前瞻性地探索了扩散模型LaDDA。

本次CNCC2025大会正值CCF CED(中国工程师文化日)五周年之际,周俊还受邀在主会场分享了他对工程师文化的思考。他提到,开放合作是工程师文化的核心基因,它打破边界、融合产学研,构建新技术生态。在大模型领域,通过开源共享技术、跨界协作,将推动技术从实验室走向千行百业。这一开源协作的理念在蚂蚁百灵模型开源的行动中得到了很好的体现。周俊强调,“百灵并非终点,而是智能演进道路上的‘脚手架’,为更广阔的未来提供支撑。我们诚挚邀请每一位研究者,基于百灵的开源成果,共同探索AGI的无限可能。”

引用文献:

1 Towards Greater Leverage: Scaling Laws for Efficient Mixture-of-Experts Language Models. https://arxiv.org/abs/2507.17702.


2 Every Attention Matters: An Efficient Hybrid Architecture for Long-Context Reasoning. https://arxiv.org/abs/2510.19338.


3 Every Activation Boosted: Scaling General Reasoner to 1 Trillion Open Language Foundation.


4 Every Step Evolves: Scaling Reinforcement Learning for Trillion-Scale Thinking Model. https://arxiv.org/abs/2510.18855.


5 Ming-Flash-Omni: A Sparse, Unified Architecture for Multimodal Perception and Generation. 



图片


图片


图片
图片

点击“阅读原文”,加入CCF。

点我访问原文链接