本期专题围绕“存算一体”主题,汇集了本领域国内著名学者团队的6篇最新研究成果,分别从支持存算一体的材料/器件、工艺集成技术、芯片架构、类脑芯片、系统及编程模型等不同视角深入剖析存算一体的发展脉络、核心挑战与未来蓝图。
人工智能(artificial intelligence, AI)大模型正以前所未有的速度吞噬着算力资源。在后摩尔时代,传统冯·诺依曼架构下处理器与存储器之间的性能鸿沟引发的“存储墙”“功耗墙”,已成为制约算力持续增长的瓶颈。数据在内存与处理器间的频繁搬运,消耗了高达90%的系统功耗与程序执行时间。为此,一场颠覆性的计算范式革命——存算一体(computing-in-memory, CIM)应运而生,它让计算单元直接“安家”在数据存储区域,从根本上消除了数据搬运的巨大开销。
当前存算一体技术主要沿着两大路径演进。1)模拟存算:利用非易失性存储介质,如忆阻器等新型器件的物理特性(如电导值),直接在模拟域进行计算,具备超高能效比和大规模并行能力,尤其擅长图像处理,低精度神经网络推理等高吞吐、低精度任务。忆阻器交叉阵列的发展正加速推动其从实验室走向商业化AI应用。2)数字存算:在如动态随机存取存储器(dynamic random access memory, DRAM)的存储单元内部或近旁(如3D堆叠内存)集成数字逻辑计算单元,保持高精度计算和通用性优势,更易与传统系统兼容,是支撑高精度通用计算和大模型推理的重要方向。其实现方式包括在双倍数据速率(double data rate, DDR)控制器侧、DRAM芯片内部嵌入计算逻辑,或通过先进封装(如3D混合键合)实现内存与逻辑芯片的高带宽近存计算。
存算一体技术对于解决当前大模型面临的算力瓶颈具有深远意义。首先,存算一体通过计算模式和体系架构的颠覆创新,开辟了后摩尔时代突破“内存墙”“功耗墙”,持续提升计算效能的全新途径。其次,存算一体技术为智能时代部署万亿参数级AI大模型,提供了具备高能效比与高扩展性的算力基础设施支撑,从根本上破除“内存墙”对模型规模与推理速度的限制,从而释放AI大模型的潜能。最后,存算一体芯片(如基于忆阻器的神经形态芯片)能高效模拟神经元膜电位累积与脉冲发放,是实现高能效、高并行类脑智能系统的关键基石。并且,存算一体芯片以其极低的功耗使其成为物联网终端、移动设备等边缘场景实现实时智能处理的理想选择。因此,存算一体技术已成为全球学术界和产业界竞相布局的战略高地。
本期专题汇集了本领域国内著名学者团队的6篇最新研究成果,分别从支持存算一体的材料/器件、工艺集成技术、芯片架构、类脑芯片、系统及编程模型等不同视角深入剖析存算一体的发展脉络、核心挑战与未来蓝图。
复旦大学教授陈迟晓及其团队的《重塑算力格局:存算一体的技术演进》,作为开篇总览,系统梳理了存算一体技术的发展历程、核心原理(模拟与数字)及其面向不同场景(高吞吐低精度与高精度通用)的典型应用案例。文章深刻指出,存算一体不仅是技术演进,更是计算范式的根本性转变,在AI芯片与边缘计算领域前景广阔。
华中科技大学教授冯丹及其团队的《基于忆阻器的存算一体加速器综述》,聚焦于支持存算一体的介质和器件,深入探讨了基于忆阻器的模拟存算一体技术。文章全面回顾了忆阻器件及交叉阵列、系统架构设计、配套软件工具链的进展,分析了其在加速AI模型推理中的应用潜力与市场现状,并指出该技术正处于从实验室验证迈向商业落地的关键拐点。
清华大学教授吴华强及其团队的《如何为人工智能芯片打造最先进的大脑?》,直指产业化的核心瓶颈?工艺集成技术。作者结合产学研经验,强调在市场规模爆发前夕,先进的工艺集成技术(如新材料、新结构、3D集成)是解决器件非理想性、提升良率、实现大规模可靠集成的关键科学问题,决定着技术落地的成败。
上海交通大学教授蒋力及其团队的《存内计算:大模型时代的算力破局之道》,针对当前大模型部署的严苛需求,犀利剖析了当前存算一体技术面临的三大系统级难题:存算一体芯片与中央处理器(central processing unit, CPU)的高效协同与一致性管理、模拟计算精度与器件非理想性对大模型支持的局限,以及3D集成带来的高热密度与工艺复杂性对良率和可靠性的挑战。文章为后续架构优化与标准化指明了方向。
浙江大学教授潘纲及其团队的《神经拟态类脑计算芯片进展与趋势:以达尔文类脑芯片为例》,聚焦类脑计算这一重要应用场景,阐释脉冲神经网络作为第三代神经网络,其生物启发特性如何天然契合存算一体架构。通过设计专用硬件实现存算深度融合与功耗精细管控,可大幅降低模拟复杂神经动力学行为的代价,为构建大脑般高效、智能的计算系统铺平道路。
华中科技大学教授刘海坤及其团队的《重塑编程范式:存算一体时代的软件革命》,从应用角度深入探讨了这场硬件革命对软件栈的颠覆性影响。文章将存算一体比作“居家办公革命”,而传统冯·诺依曼架构如同过时的“交通规划手册”。作者深入解析了重建编程“地基”(硬件抽象)、修订“交通规则”(指令集扩展)、升级“导航系统”(编译器创新)以及优化“实时调度”(运行时管理)所面临的挑战,并对比了近存计算与存内计算不同架构下编程模型的研究现状。
展望未来,存算一体技术的发展呈现出以下几个核心趋势。1)工艺与集成技术需要持续突破。新型存储器的成熟与3D/异构集成技术(如混合键合)的进步是提升性能、密度、良率的基础。克服器件非理想性、热管理难题是重中之重。2)模拟与数字逐渐走向融合。探索混合信号存算一体架构,在关键低精度计算部分发挥模拟超高能效优势,在高精度或控制部分依赖数字逻辑,以平衡能效、精度与灵活性,是存算一体架构发展的重要发展方向。3)软硬件深度协同设计。硬件架构的创新必须与编程模型、编译器、操作系统、运行时系统的重构紧密结合。开发对程序员友好、能有效抽象底层硬件复杂性的软件栈是生态成熟的关键。4)迫切需要标准化与生态构建。特别是在数字存算一体芯片领域,接口标准、一致性协议、编程模型的标准化将加速技术的广泛采纳和产业化进程。5)应用场景纵深不断拓展。存算一体从AI推理、边缘计算、类脑芯片,逐步渗透至高能效数据中心、科学计算乃至更广泛的通用计算领域。
存算一体技术正以前所未有的活力,冲击着统治计算领域半个多世纪的冯·诺依曼架构。它不仅是应对算力需求爆炸式增长的利器,更是开启高能效智能计算新时代的钥匙。本专题所呈现的研究,从基础器件、工艺集成、架构设计、系统设计到编程范式,全方位展现了这一领域的蓬勃生机与复杂挑战。尽管前路仍有工艺、集成、系统协同、软件生态等诸多难关需要攻克,但存算一体所代表的“数据就地计算”理念,无疑契合了高效智能计算的本质需求。我们有理由相信,这场深刻的“计算本地化”革命,将重塑未来算力的版图,最终赋能无处不在的智能。
金海
CCF会士、副理事长。华中科技大学教授。主要研究方向为计算机体系结构、计算系统虚拟化、集群计算和云计算、网络安全、网络存储与并行I/O。
hjin@hust.edu.cn
本文发表在《计算》2025年第6期。
点击“阅读原文”,加入CCF。
