首页 > 最新动态 > 图基础模型|CNCC Tutorial
最新动态
图基础模型|CNCC Tutorial
2025-09-1512

CNCC2025 Tutorial是由领域内专家主讲,面向全体参会者开放的专题讲座或教学环节,旨在介绍研究领域的最新进展或基础知识,内容涵盖原理、挑战、方法等。可以帮助刚进入该方向的博士生、青年学者快速补齐知识短板,以便更好地参会后续的前沿报告理解与未来方向思辨。


今年Tutorial共设置9大主题板块:AI基础模型、机器学习理论与机理、强化学习与推理、视觉与多模态、AI安全与治理、面向AI的数据管理和治理、Agent与具身智能、新型计算与网络架构、AI4Science。



??Tutorial名称:

图基础模型

??所属主题:

AI基础模型

??日程安排:

2025年10月22日下午

??举办地点:

哈尔滨市·华旗饭店


注:如有变动,请以官网(https://ccf.org.cn/cncc2025)最终信息为准


模块

时长

内容

1. 图基础模型概念介绍

30分钟

介绍图基础模型相关概念定义、分类体系等

2.基于图神经网络的图基础模型

35分钟

介绍图神经网络的通用性与鲁棒性,探讨大模型时代下图表征学习在自监督、鲁棒性等方向的关键技术、挑战以及思考

3. 大语言模型增强的图基础模型

35分钟

介绍LLM如何在GFM的构建中发挥关键作用,包括:1)统一不同领域图的节点特征空间,2)统一不同任务(节点、链路、图级别)的语义空间,3)统一不同任务的输出形式,4)启发GFM的设计空间等

4. 大模型智能体启发的图基础模型

35分钟

介绍大语言模型智能体等技术与图学习相结合的最新研究进展,并结合图基础模型等相关概念,讨论该领域的潜在发展方向

5. 问答&讨论

15分钟

报告嘉宾&参会者自由交流讨论


1

Tutorial简介

图作为人工智能数据生态中的重要组成部分,其机器学习技术经历了从浅层方法到深度模型的演进。与此同时,基础模型在自然语言处理等领域取得了巨大成功,其强大的涌现能力与泛化能力引发了图机器学习研究者的浓厚兴趣,促使人们开始探讨下一代图学习范式的构建:即在大规模图数据上进行预训练,进而适配于多种下游图任务。在本次讲习班中,我们将介绍“图基础模型(Graph Foundation Models)”的概念,并全面阐述其关键特性与核心支撑技术。随后,我们将分类介绍该方向的研究工作,对图基础模型的发展现状进行全面梳理与深入分析。最后,我们将展望这一快速发展领域的未来研究方向。

2

Tutorial目标

参与者将能够:

目标1:掌握图基础模型相关概念和方法体系

目标2:了解该方向学术界前沿研究成果

3

Tutorial内容

1. 图基础模型初探

我们将介绍图基础模型(Graph Foundation Models, GFMs)的概念,全面阐述其关键特性与相关支撑技术。随后,我们将系统回顾当前为GFMs奠定基础的相关研究工作,并根据其起源分别归类为三大类:基于图神经网络的方法、基于大语言模型的方法,以及融合两者优势的混合范式。

 

2. 图神经网络的通用性与鲁棒性

传统图表征学习方法主要依赖于图神经网络(GNN)及其消息传递机制,获得学术界与工业界的广泛关注。随着大语言模型(LLM)在多个领域取得突破,图表征学习范式也正经历显著变革,主要体现在领域内对图transformer架构的聚焦,学习范式从特定任务的端到端训练向自监督预训练的转变,以及图神经网络与大模型的结合。本次报告将围绕以上内容,探讨大模型时代下图表征学习在自监督、鲁棒性等方向的关键技术、挑战以及思考。

 

3.大语言模型增强的图基础模型

介绍LLM如何在GFM的构建中发挥关键作用,包括:1)统一不同领域图的节点特征空间,2)统一不同任务(节点、链路、图级别)的语义空间,3)统一不同任务的输出形式,4)启发GFM的设计空间等。我们将介绍这个领域的一些经典工作,如OFA,GOFA,GraphGPT,LLaGA,GraphTranslator,UniGraph等,并展望和讨论一些未来方向和挑战,如怎样更原生的融合图结构和文本,如何提升在大图上的效率,GFM是否存在scaling law等。

 

4.大模型智能体技术引导下的图学习方法研究

大语言模型技术目前已展现出推理、规划、工具使用等诸多类人智能,可作为智能体的大脑自动化地处理各种复杂任务,广泛应用于以文本处理为核心的诸多场景。在本次报告中,我们将介绍大语言模型技术与图学习相结合的最新研究进展,并结合图基础模型等相关概念,讨论该领域的潜在发展方向。


讲者介绍




石川

北京邮电大学教授

北京邮电大学特聘教授、教育部长江学者特聘教授,智能通信软件与多媒体北京市重点实验室副主任。主要研究方向:图机器学习、人工智能、科学智能;特别专注于图数据智能分析,进行理论、应用、平台、标准全链条研究。发表CCF A类期刊和会议发表论文100余篇,英文专著四部,谷歌学术引用2万余次;授权发明专利30余项,相关研究成果应用于阿里、蚂蚁、腾讯、华为、美团等公司。研究成果获得中国电子学会科技进步一等奖和北京市自然科学二等奖等奖项。获得北京市高等学校师德先锋、思政名师和中国智能计算创新人物等称号。

王啸

北京航空航天大学教授

CCF高级会员,北京航空航天大学教授,博士生导师。研究方向为人工智能、数据挖掘与机器学习,国家自然科学基金青年基金B类获得者。共发表论文100余篇,谷歌学术引用15000余次,7篇入选最有影响力论文榜单,3次获得(提名)CCF A/B类等国际会议论文奖,成果多次被写入业界图学习标准库PyG和DGL等。曾获得国家自然科学二等奖,教育部自然科学一等奖,中国电子学会科技进步一等奖,吴文俊人工智能优秀青年奖,ACM中国新星提名奖,入选斯坦福大学发布的全球Top 2%顶尖科学家终身影响力榜单。担任NeurIPS领域主席,WWW/AAAI/IJCAI的高级程序委员会委员,Neural Networks和IEEE TAI期刊编委。CCF青工委主任助理,CCF大数据专委会执行委员,CCFAI专委会执行委员,中文信息学会SMP专委会委员。

张牧涵

北京大学研究员

博士,北京大学人工智能研究院助理教授、院长助理,国家优青(海外)项目获得者,北京大学博雅青年学者,北京大学2023级通用人工智能实验班班主任。2015年本科毕业于上海交通大学IEEE试点班,2019年于美国圣路易斯华盛顿大学获得计算机科学博士学位,2019-2021年期间曾担任Facebook AI(现Meta AI)研究科学家。主要研究方向为图机器学习和大模型推理。获AMiner评选的2022及2023年AI 2000人工智能最具影响力学者提名。代表作为图神经网络做链路预测的经典算法SEAL(被引用超过2000次),图神经网络用于图分类的早期算法DGCNN(被引用超过1500次),以及图神经网络做多节点预测的Labeling Trick理论(被引用超过200次)。主讲北大《人工智能引论》和《机器学习》课程。

杨成

北京邮电大学副教授

北京邮电大学副教授,博士生导师,长期从事数据挖掘和自然语言处理相关方向的研究,发表相关领域CCF A类论文40余篇,谷歌学术被引1.5万余次,相关成果获2020年教育部自然科学奖一等奖(排名第四)等省部级奖励。获中文信息学会优秀博士论文奖、中国人工智能学会吴文俊青年科技奖,入选中国科协“青年人才托举工程”,连续三年入选斯坦福大学发布的全球前2%顶尖科学家榜单。


CNCC2025



CNCC2025将于10月22-25日在哈尔滨举办。专题论坛将在往年多样化主题的基础上,首次通过“基础-前沿-未来”的一体化设计,满足不同背景参会者的需求,构建从知识获取到创新激发的完整路径,打造系统化、进阶式的参会体验。重点设置9大主题板块,每个主题板块的专题论坛由三大核心模块组成:面向前沿领域的体系性Tutorial、聚焦前沿突破的专题论坛以及探讨未来发展路径的思辨论坛。Tutorial作为这一设计的起点,为参会者构建坚实的共同知识基础,能够深度参与后续的前沿报告理解与未来方向思辨。同时面向青年学者、行业新锐等人群,通过系统性教学,助力赋能青年人才发展。





图片


图片
图片
图片

点击“阅读原文”,进入官网。

点我访问原文链接