2025 CCF中国开源大会
2025年8月2日-3日,由中国计算机学会(CCF)主办,CCF开源发展技术委员会、上海交通大学承办的2025 CCF中国开源大会在上海召开。作为中国开源领域的年度标杆盛会,本届大会以“蓄势引领、众行致远”为主题,汇聚了来自高校、科研机构、企业的顶尖专家学者与开源领军人物,围绕开源操作系统、开源芯片、开源大模型等核心领域展开深度探讨。
AI 基础设施论坛
AI基础设施分论坛作为2025 CCF中国开源大会的重要组成部分,聚焦于AI基础设施领域的开源创新与实践,吸引了众多参会者的关注。在分论坛上,7位演讲嘉宾分别从不同角度带来了精彩的主题演讲,分享了他们在AI基础设施建设方面的宝贵经验和深刻见解。
大模型时代云原生
Infra Services 的机会
章文嵩(LVS创始人、CCF ODTC副主任)
CCF会士、常务理事章文嵩博士指出,以ChatGPT为代表的生成式人工智能开启了智能化科技革命,这将是一场持续百年的变革。各行业拥有私有化数据,具备智能化升级的潜力,AI大模型服务可通过旁路微调引擎实现专业化技能训练。开源在AI发展中至关重要,它能加快开发速度、构建社区生态、降低智能化门槛,开源大模型将凭借丰富的数据超越闭源大模型。未来AI行业格局中,智能化升级和应用将创造巨大价值,催生对数据基础设施和AI服务基础设施等Infra Services的需求。Infra Services应构建于云基础设施之上,以提升工程效率,云原生架构在存算分离、成本控制、调度能力和可扩展性等方面具有显著优势,如AutoMQ作为云原生数据流引擎,能释放云基础设施红利,节省大量计算存储成本。
Shanghai Cube
国产高密度机柜设计
程刚(模合信息科技CEO)
程刚介绍了Shanghai Cube国产高密度机柜系统,该系统的典型算力集群由外网接入、登录管理服务器、存储服务器、GPU服务器群以及多种交换机网络构成。Shanghai Cube采用2U冷板式液冷单服务器结构,通过CU32超节点拓扑,以MetaXLink直连体系构建32-GPU超节点,实现了算力集中共享和分配、超节点内2TB显存共享以及灵活的模型训推并行策略,实测裸金属平台模型训推性能提升10%-15%。其128GPU高密度液冷集群包含硬件和软件两部分,硬件方面,一个47RU计算机柜含16台2U GPU液冷服务器,每4台构成CU32超节点,还包含GPU间互联DAC线缆等支持部件;一个47RU管理机柜包含管理服务器、存储服务器、交换机构建的多种网络以及互联所需线缆。软件方面提供整套集群操作系统等平台。该集群解决了实际问题,如128卡高密度液冷整机柜构成万卡集群基础阵列单元,冷板式液冷散热降低PUE至1.15,整合软件体系,实现软硬件一体化整体交付和极速部署,提升了集群模型训推性能,且实现全自主可控,机柜交付布局面积减少70%,供应链体系确保弹性交付。
AIBrix 实战:云原生
LLM 推理基础设施架构
谢立广(字节跳动AIBrix项目负责人)
谢立广提到,AIBrix是针对大规模部署、管理和扩展LLM推理而设计的云原生解决方案,与推理引擎协同设计。在成本降低方面,面临LLM自动缩放指标(如QPS不适用于 LLM 推理场景,现有GPU指标存在局限性且指标非线性)和异构GPU资源利用(不同性能GPU适用于不同规模请求,需混合使用实现成本效益最大化)的挑战。AIBrix通过支持LLM推理特定指标(如 TTFT、TPOT等),采用负载监控、GPU优化器、在线Pod自动缩放、请求分发协同等设计实现异构自动缩放,同时具备前缀感知路由、基于KV感知的路由等功能。在延迟优化方面,KV缓存卸载面临KV缓存重用与有限GPU内存容量、硬件限制(如低端GPU实例无高速互连,网络带宽竞争)的挑战,AIBrix 通过可插拔的逐出策略、灵活的 KV 缓存框架、分布式KV缓存编排等解决;P/D分离能减少预填充影响,显著降低 P95 延迟。AIBrix的路线图包括支持Prefill & Decode分离的多种架构、扩展 KV 缓存卸载框架支持vLLM v1架构、基于KV事件的路由以及基于配置文件的 SLO 感知路由等。
大模型时代云原生
Infra Services 的机会
杨建(沐曦联合创始人、CTO兼首席软件架构师)
杨建认为DeepSeek开源迎来大模型平权时代,Scaling Laws表明算力的重要性,我们需要优质算力、海量开源软件和大模型原生开发者迎接后大模型时代。当前AI开源生态中,2024年全球AI开源项目指数级增长,应用更接近落地。沐曦成立于2020年9月,致力于打造世界一流的GPU芯片及计算平台,拥有全栈 GPU 芯片产品和广泛的算力集群分布。沐曦基于MXMACA构建人工智能的 “Android” 计算生态,MXMACA开源进展显著,包括从应用到算子快速开放,对DeepSeek首发适配,对KTransformers进行单卡性能优化,与PaddleScience合作共建开源PaddleScience - AI4S,推出自动驾驶环境开源仿真解决方案、具身智能生成式仿真开源方案和具身智能复杂技能仿真开源方案。此外,沐曦还通过多种开源活动,如与 “开源中国” 上线65+开源模型,赋能国内大模型应用开发者和贡献者。通过CCF ODTC举办开源竞赛、开展开源高校行活动、组织开源夏令营、推进开源毕设等,推动 GPU开源生态建设。
大模型时代的系统软件开源创新实践
苏志远
(龙蜥社区技术委员会副主席,
浪潮信息系统软件产品部总经理)
苏志远表示,大模型能力不断提升,推动AI产业加速发展,多智能体爆发释放大模型潜力,这背后开源开放对AI创新活力活力的激发作用是巨大的。在大模型应用落地过程中,一套稳定高效的AI基础设施软件至关重要。但同时也面临多元异构算力管理复杂、协同成本高、推理系统稳定性待提升、AI原生安全风险等挑战。在开源实践方面,龙蜥社区联合众多AI Infra上下游厂商和高校,积极推进龙蜥智算基础设施联盟建设,在技术创新、生态建设和产品运营方面开展多方位工作,包括构建AI Native OS、降低适配复杂度、形成开放兼容体系以及人才培养和品牌运营等,完善AI Infra开源生态。
AI 时代开源技术的
产品化、商业化、全球化
滕爱龄(蚂蚁集团产品总监、CCF ODTC执委)
滕爱龄认为,AI时代正向系统级、生态级演化,这不仅是技术进步,更是产品范式和社会结构的重塑,开源在此过程中推动技术开放、应用平权与制度可审计。技术、制度和文化作为支撑AI演化的三大基础设施,决定着AI能否普惠、安全、持续发展。开源是AI时代基础设施的共识底座,作为一种制度结构,能让模型可复现、工具可协作、治理可审查,且因文化驱动和社区参与,具有更强的增长与创新潜力。开源经历产品化、商业化、全球化三重跃迁,从代码成为可用、可赚、可持续的基础设施,最终成为AI时代全球协作与技术治理的新制度,契合AI基础设施的演化特性。
圆桌激辩,现场热情“失控”
论坛最令人印象深刻的环节当属圆桌讨论。由章津楠主持,章文嵩、李宝龙、葛佳烨、谢立广、张家驹重量级嘉宾围绕“开源AI Infra的机遇与挑战”圆桌论坛现场火花四溅。
观点交锋几度“失控”:
1. 生态协作:有呼吁基金会牵头制定标准、有主张企业开放核心工具链、也有强调社区自治价值,三方立场碰撞引发全场热议;
2. 可持续性挑战:有嘉宾直言警示“重开源轻运营”风险,也提出“商业化反哺社区”新路径,嘉宾轮番抢麦导致主持人控场失败;
3. 大模型热潮:针对现在DeepSeek R1、Qwen3、Kimi-K2、MinMax开源热潮,大家对未来开源AI Infra给出了各自有趣的见解。
原定议程严重超时,嘉宾因赶航班频频看表却仍主动“加戏”,最终观众提问环节,首位提问者话音未落,台下嘉宾已抢过话筒补充观点,妙趣横生。主持人笑叹:“这是唯一一场观众提问被台下嘉宾‘截胡’的论坛!”
圆桌虽落幕,但共识渐显:建立跨组织治理联盟、探索开源商业化闭环将成为破局关键,也给台下观众留下了遗憾有借口下次再叙。
赋能生态,蓄势引领未来
此次 AI 基础设施分论坛内容丰富,涵盖了从云原生架构到硬件设计,再到软件开源生态、GPU 开源生态以及开源技术的产品化、商业化和全球化等多个层面。演讲嘉宾们的分享为参会者呈现了 AI 基础设施领域的全面图景,深入剖析了当前面临的挑战与机遇,并展示了一系列创新的解决方案和实践案例。这些成果将为推动 AI 基础设施的发展提供有力的支持,促进 AI 技术在更多领域的应用和创新,助力中国开源事业在 AI 基础设施领域取得更大的突破。
往期推荐
点击阅读原文 进入GitLink开源创新服务平台