论坛简介:
随着生成式人工智能技术的快速发展,大模型在内容生成方面展现出强大能力,但同时也带来了行为失控、虚假信息传播、隐私泄漏等安全隐患。作为 AI 规模化应用的核心基石,大模型内容安全需覆盖训练、推理、部署全生命周期,融合自然语言处理、数据科学与安全技术等多学科能力,成为平衡创新与风险的关键支撑。
当前大模型内容安全面临多重挑战。大模型高质量训练数据濒临耗尽,规模定律边际效益递减;大模型训练数据中的敏感或隐私信息,可能被恶意诱导提取;大模型幻觉率居高不下,可能生成无事实依据的虚假信息;主流对齐方法存在瓶颈,大模型可能生成背离社会主义核心价值观等风险内容;这些问题严重制约了大模型的合规应用与信任构建。
本论坛汇聚数据科学、自然语言处理和安全领域的顶尖专家,围绕大模型全生命周期的内容安全问题,从多学科交叉视角分享最新研究成果并展开深度交流与研讨,包括大模型认知能力提升、价值对齐、幻觉现象、隐私保护等核心问题展开深度交流与研讨,为大模型及相关行业的健康发展提供理论支撑和实践路径。
论坛安排
顺序 | 主题 | 主讲嘉宾 | 单位 |
1 | 大模型的数据科学 | 肖仰华 | 复旦大学 |
2 | 基于数据治理的大模型内容安全 | 赵东岩 | 北京大学 |
3 | 大模型核心价值观对齐能力评测 | 熊德意 | 天津大学 |
4 | 数据遗忘之困:大模型遗忘机制安全风险初探 | 王志波 | 浙江大学 |
论坛主席
钱铁云
论坛讲者
肖仰华博士
赵东岩
熊德意
王志波
点击“阅读原文”,加入CCF。
