CCF Computility 2025 | 翟季冬、谢鲲、肖利民、李士刚、石宣化等教授邀您共话大模型基础设施与架构技术论坛
2025-07-031

第二届CCF分布式计算大会暨中国算力网大会(CCF Computility 2025)将于2025年7月25日至27日在兰州举行,会议规模预计1400余人。本次会议由CCF主办,CCF分布式计算与系统专委会与兰州大学共同承办。会议主题为“算力网:新质生产力背景下的分布式系统”,旨在为分布式系统和算力网相关的从业者提供最专业的学术研讨、技术交流和成果展示的平台。CCF Computility 2025为大家准备了9场由院士等顶级专家带来的主旨报告,21场技术论坛(120位特邀报告)。目前会议注册通道已经开放。
?? 时间紧迫,抓紧报名!
本论坛旨在探讨大模型在基础设施与架构方面的最新发展演进,聚焦大型模型在实际部署和运行中所面临的挑战,涵盖基础架构设计、算法优化、分布式训练、模型压缩等关键技术,共同探讨如何构建高效、可扩展的大模型基础架构与系统。
论坛主席 | 肖利民研究员,李士刚教授,翟季冬教授 |
---|
特邀报告1 | 石宣化 教授 华中科技大学 | 内存为中心的人工智能模型训练系统研究 |
特邀报告2 | 谢鲲 教授 | 从监测数据到大模型:高维复杂数据的智能采集与分析框架 |
特邀报告3 | 崔慧敏 研究员 | 编译技术在AI软件栈中的实践分享 |
特邀报告4 | 顾荣 研究员 南京大学 | 面向大模型推理的高效KV缓存与模型缓存技术
|
特邀报告5 | 李士刚 教授 | MoE稀疏大模型并行推理加速研究
|
| 王磊 主任
中金电信研究院 | 异构资源调度与流量治理在大模型推理中的应用 |
时间:2025年7月26日 地点:兰州市甘肃国际会议中心 |
扫描上方二维码,
或登录CCF会议系统
点击“报名”→ 提交信息 →“我要缴费”。
肖利民,博士,联想集团首席科学家,研究员,CCF高性能计算、大数据、容错计算专委会委员,工信部电子科技委委员,科技部超算联盟副理事长、工信部先进计算联盟副理事长。主要从事智能计算基础设施、云边端协同计算、算力芯片及系统软件栈等研发工作,主持承担国家重点研发计划、863、核高基重大专项、自然科学基金等项目,获国家科技进步奖4项、省部级科技奖11项。发表ISCA、TC、TCAD、ASPLOS等论文270多篇。获发明专利授权100多项。
李士刚,北京邮电大学,计算机学院(国家示范性软件学院),拔尖人才教授,博士生导师,IEEE高级会员,入选国家高层次青年人才计划,获评CCF高性能计算“卓越青年”,获华为“火花奖”。研究方向为高性能计算与大模型系统,多次获得顶级学术会议最佳论文提名(SC'21-大模型双向流水线并行系统Chimera、SC'22-张量核心上高性能稀疏矩阵计算Magicube、PPoPP'20-同步松弛全局归约并行训练算法Eager-SGD、HPDC'13-混合存储架构上高性能MPI通信库等), 获MLSys'21杰出论文奖,SC'22最佳结果复现奖,CACM研究亮点工作,多项成果在企业应用。担任SC、PPoPP、IPDPS、ICPP等重要学术会议TPC委员40余次。指导学生参加2025 ASC世界大学生超级计算机竞赛,总决赛第3名,获一等奖。
翟季冬,CCF高性能计算专委副主任、CCF杰出会员、清华大学计算机系长聘教授,博士生导师,青海大学计算机技术与应用学院院长。国家杰出青年科学基金获得者,国家重点研发计划项目负责人、清华大学计算机系高性能所副所长、ACM中国高性能计算专家委员会秘书长。主要研究领域包括并行计算、编程模型与编译优化。在并行计算与系统领域顶级会议和期刊发表论文100余篇,出版专著1部。研究成果获IEEE TPDS 2021最佳论文奖、IEEE CLUSTER 2021最佳论文奖、ACM ICS 2021最佳学生论文奖等。担任NPC 2018程序委员会主席、IEEE CLUSTER 2021领域主席,IEEE Transactions on Computers等多个国际学术期刊编委。担任清华大学学生超算团队教练,指导的团队十四次获得世界冠军。获教育部科技进步一等奖、CCF自然科学一等奖、CCF-IEEE CS青年科学家奖。
讲者简介:石宣化,华中科技大学教授、博士生导师,长江学者特聘教授,计算机学院副院长、大数据技术与系统国家地方联合工程研究中心副主任,CCF高性能计算专委会副主任。2006年在INRIA从事博士后研究。主要研究云计算与大数据处理、异构计算等,在ASPLOS、VLDB、SOCC、TOCS等会议与期刊发表论文40余篇,获得2022年度中国计算机学会CCF自然科学一等奖。
报告题目:内存为中心的人工智能模型训练系统研究
报告摘要:随着人工智能深度学习快速发展,模型参数规模激增。内存/显存在模型训练中的瓶颈问题凸显,如显存容量增长过慢导致参数放不下、内存/显存空间隔离导致内存共享难、内存使用不均导致并行效率低等问题,本报告将针对以上问题进行探讨并给出一些初步实验结果。
讲者简介:谢鲲,湖南大学二级教授,博士生导师,国家杰出青年基金获得者,湖南省杰出青年基金获得者,湖南省青年骨干教师,湖南省优秀硕士生导师,长沙市“巾帼建功”标兵,湖南省优秀硕士生导师团队成员,湖南大学岳麓学者,湖南大学科研标兵。担任超算与人工智能融合计算教育部重点实验室主任,以及湖南大学信息科学与工程学院学术委员会/学位委员会主任。长期从事计算机网络、网络安全、人工智能、时序大模型的研究工作。
报告题目:从监测数据到大模型:高维复杂数据的智能采集与分析框架
报告摘要:随着大规模预训练模型在网络安全等领域的广泛应用,对高质量监测数据的需求持续增长。现实中的网络监测系统生成高维、高频、强时空相关的数据,为大模型训练提供支撑,但同时面临采集成本高、数据缺失和异常干扰等挑战,影响模型性能。本报告提出一套面向大模型训练的高效监测数据采集与分析框架,结合监测数据的低秩特性,融合机器学习与人工智能方法,实现低开销采集、数据补全与异常检测,提升数据完整性与系统鲁棒性。
讲者简介:崔慧敏博士,中国科学院计算技术研究所研究员,博士生导师,中科加禾创始人,任中科院计算所编译与编程实验室主任。曾主持过多项自然科学基金、973项目、科技部重点研发计划等国家级科研项目与课题,是2030新一代人工智能某编程项目的首席科学家。发表包括ASLPOS、MICRO、PLDI、PPoPP、OSDI、SC、TOCS、TPDS、TACO等编译和系统领域的顶级国际会议和期刊论文60余篇。
报告题目:编译技术在AI软件栈中的实践分享
报告摘要:充分的发挥芯片的性能是编译器长久以来的追求,并在AI时代显得更加重要。本报告将汇报一系列结合AI编译和传统编译的优化技术,探索如何利用跨越多个层次的编译优化技术构建高效的针对AI应用的基础设施。
讲者简介:顾荣,南京大学特聘研究员,国家高层次青年人才、达摩院青橙奖获奖者(2023),研究方向为云计算系统、大数据智能计算系统,成果发表于SIGMOD,VLDB,USENIX ATC,EuroSys等国际顶级会议期刊。他获得江苏省科学技术一等奖、IEEE TCSC Early Career Excellence Award、HPCC会议最佳论文奖等学术荣誉,以及华为火花奖、阿里优秀学术合作项目奖等业界奖项。他发起研制云原生弹性缓存系统Fluid并当选开源社区主席。Fluid已入选国际云原生计算基金会,广泛应用于阿里云、腾讯云、火山引擎、天翼云、360、小米等行业龙头企业。
报告题目:面向大模型推理的高效KV缓存与模型缓存技术
报告摘要:模型推理是实现大模型赋能行业应用的“最后一公里”。然而,大模型规模庞大和负载波动的特点给模型推理框架带来资源开销和速度性能方面挑战。本报告将介绍我们在大模型推理全流程中利用缓存技术减少重复计算和加速数据访问的研究成果,包括推理框架内的KV缓存预取调度,以及推理云平台上的模型缓存传输管理。实验表明方法在推理速度和资源开销方面取得显著性能提升,成果录用发表于CCF A类论文多篇,并且部分技术已在头部公司推广应用。
讲者简介:李士刚,北京邮电大学,计算机学院(国家示范性软件学院),拔尖人才教授,博士生导师,IEEE高级会员,入选国家高层次青年人才计划,获评CCF高性能计算“卓越青年”,获华为“火花奖”。研究方向为高性能计算与大模型系统,多次获得顶级学术会议最佳论文提名(SC'21-大模型双向流水线并行系统Chimera、SC'22-张量核心上高性能稀疏矩阵计算Magicube、PPoPP'20-同步松弛全局归约并行训练算法Eager-SGD、HPDC'13-混合存储架构上高性能MPI通信库等), 获MLSys'21杰出论文奖,SC'22最佳结果复现奖,CACM研究亮点工作,多项成果在企业应用。担任SC、PPoPP、IPDPS、ICPP等重要学术会议TPC委员40余次。指导学生参加2025 ASC世界大学生超级计算机竞赛,总决赛第3名,获一等奖。
报告题目:MoE稀疏大模型并行推理加速研究
报告摘要:MoE稀疏大模型因其计算效率高、训练成本低以及输出数据质量高而被广泛应用。然而,字符动态路由导致MoE模型存在固有的负载不均衡问题。尽管有工作通过训练算法的改进来优化负载分布,但仍不能消除推理阶段MoE模型的负载不均衡问题,通常会成为推理性能瓶颈。因此我们提出了SwitchMoE并行推理框架,可以根据不同阶段工作负载特性动态调整并行优化策略,在保证准确性的同时实现自适应负载均衡,与多种推理框架相比SwitchMoE在不同模型上均获得了显著性能提升。
王磊,中电金信研究院,容器云技术实验室主任,云原生基础设施与异构算力调度领域专家,长期致力于容器云、微服务治理、API 网关及算力加速相关技术与产品的研发工作。曾任时速云联合创始人兼 CTO,积极参与云原生开源社区建设,主导 kubeagi、kubebb、arbiter 等云原生相关开源项目。
题目:异构资源调度与流量治理在大模型推理中的应用
摘要:在AI技术迅速发展的背景下,推理成本的降低使得推理端的算力需求持续扩大,进一步推动了AI领域的创新。此次分享将探讨如何通过智能调度有效管理异构计算资源,从而提升资源利用率和推理效率。同时,结合分布式推理框架,分享在多节点环境中优化资源分配和推理效率的实践方法。此外,通过在 AI 网关中实施流量治理策略,以更好地保障大模型服务的稳定性,并在不同场景下平衡访问效率和资源成本。
目前大会已经开放注册并在6月15号前提供早鸟票注册优惠。
门票类型 | 参会者身份 | 4.26~6.15 | 6.15~7.27 |
---|
会议注册费 | CCF专业会员 | ¥2200 | ¥2700 |
CCF学生会员(不含晚宴) | ¥1200 | ¥1700 |
CCF学生会员(含晚宴) | ¥1500 | ¥2000 |
非会员专业人员 | ¥2700 | ¥3200 |
非会员学生(不含晚宴) | ¥1700 | ¥2200 |
非会员学生(含晚宴) | ¥2000 | ¥2500 |
备注: 十人及以上团报9折 |
扫描上方二维码,
或登录CCF会议系统
点击“报名”→ 提交信息 →“我要缴费”。



点击“阅读原文”,加入CCF。
点我访问原文链接