2025年10月25日下午,由CCF主办、CCF YOCSEF苏州学术委员会组织,火山引擎与科大讯飞智慧心育联合支持的CNCC技术论坛“从识别到生成:智能交互离真情实感还有多远”(CCF-Yo-25-149)在哈尔滨华旗礼堂举办。
2025年10月25日下午,由中国计算机学会主办、CCF YOCSEF苏州学术委员会组织,火山引擎与科大讯飞智慧心育联合支持的中国计算机大会(CNCC)技术论坛“从识别到生成:智能交互离真情实感还有多远”(CCF-Yo-25-149)在哈尔滨华旗礼堂举办。近百位来自高校、科研机构及企业界的专家学者与行业同仁,围绕情感识别、具身情感表达、情感交互伦理风险展开深入研讨。本次论坛由YOCSEF苏州AC委员陆恒杨(江南大学)、YOCSEF苏州AC主席李华康(西交利物浦大学)作为执行主席共同主持。
一、论坛开场:锚定情感交互前沿,厘清核心议题
随着大模型技术的飞速发展,人机交互已从传统的“指令响应”模式,逐步向“情感共鸣”、“智能行动”乃至“具身交互”演进。宇树机器人能节拍跟随,讯飞青少年AI心理伙伴能与对话者共情反馈,火山引擎具身智能机器人能与人交流并执行指令。情感交互正突破语言、视觉等单一模态的局限,走向多维度、深层次的融合。
如何让机器真正理解人类情感的主观性与复杂性?如何让具身智能的情感表达更自然、更可信?如何实现个性化情感响应与安全伦理的平衡?本次论坛正是围绕这些问题,邀请学界与产业界专家共同碰撞思路,为情感计算技术的落地与发展提供技术方向。
二、引导发言:多维度解构情感计算,呈现技术与实践前沿
本次论坛邀请的4位引导嘉宾,分别从学术研究、技术突破与产业应用视角,为智能情感交互领域的核心问题提供深度洞察,为后续思辨环节奠定坚实基础。
(一)秦兵教授(哈尔滨工业大学):情感交互的层级演进与对齐技术
秦兵教授以“大模型时代的情感计算”为主题,系统梳理情感交互从“语言共情”到“智能行动”再到“具身交互”的三级演进路径。情感交互的边界拓展,始终面临“个性化”与“安全性”两大共性挑战。个性化需适配用户的情感偏好、行为习惯与文化背景;安全性则需规避语义误导、工具调用错误乃至实体伤害风险。对此,秦兵教授提出“个性化对齐+安全对齐”双轮驱动方案。通过主动倾听理论挖掘用户深层情绪需求、构建细粒度人格模型、强化文化适应性对齐实现个性化服务;通过内容安全检测、角色化边界管控、多模态风险识别,保障情感交互的伦理安全。
(二)杨巨峰教授(南开大学):情智兼备的多模态模型初探
杨巨峰教授聚焦“多模态情感理解”这一核心方向,分享其团队在多模态情感分析领域的研究成果。当前多模态情感研究存在“需求饱满与标注稀缺”的核心矛盾,人类对视频情感的理解需求涵盖细粒度片段情绪、帧级情感分布等,但高质量标注数据因成本高、主观性强而难以获取。他提出三条创新技术路径:一是利用视频自带的语音转文字、弹幕等自监督信号,替代人工标注;二是设计超长时序闭环学习框架,从视频语音、文本、画面中自动提取情感关联特征;三是与企业合作探索“情感赋能生成”,如在短视频场景中将情感计算能力融入视频生成模型,提升内容的情感感染力。最后指出未来多模态情感模型需从更多的维度进行建模才能真正做到“情智兼备”。
(三)王崇骏教授(南京大学):解码情感还是制造幻象?AI情感识别的真实性悖论
王崇骏教授从哲学与认知科学视角,抛出情感计算领域的根本性问题。当前AI的情感识别,究竟是“解码”人类真实情感,还是“制造”让人类信以为真的情感幻象?他指出现有情感计算技术存在三大局限。一是数据驱动的本质是识别“行为”而非“情感”,如通过表情、语音判断情绪,实则是对行为信号的统计映射,而非对内在情感的真正理解;二是多模态数据存在冲突与缺失风险,如“微笑的表情+悲伤的语音”这类矛盾场景,难以判断是语义冲突还是数据误差;三是大模型的“幻觉”与“单向透明”问题,AI生成的情感反馈可能违背事实,且机器可观察人类行为,人类却无法知晓机器的“决策逻辑”。他提出破局思路包括:一是从“工具主义”转向“人本主义”,明确AI情感技术的边界:二是不追求让机器“拥有”情感,而是让其成为“增强人类沟通的工具”;三是建立伦理护栏,在医疗、司法等关键领域严控AI情感决策的权限,确保技术服务于人的主体性与福祉。
(四)常雪亮院长(科大讯飞智慧心育研究院):大模型在青少年心理筛查与干预中的实践
常雪亮院长结合科大讯飞的产业实践,分享大模型在青少年心理健康领域的应用成果。她指出,当前青少年心理问题检出率高,但专业心理咨询师缺口巨大,AI成为填补这一缺口的重要力量。智慧心育研究院基于“星火大模型”,加入真实心理咨询对话数据,训练出“AI心理伙伴”系统:在心理筛查场景,通过多模态技术替代传统量表,准确率提升30%、筛查时间显著缩短;在心理辅导场景,通过知识图谱构建学生个性化画像,实现“长期记忆”,提供持续、连贯的情感支持。系统能触达“不愿向成人求助”的隐性高危群体,有效降低校园心理风险。最后她强调,AI的“过度迎合”可能加剧青少年的认知扭曲,且责任界定、隐私边界等伦理问题仍需行业共同探索。
三、思辨环节:聚焦三大核心议题,碰撞技术与伦理共识
与会专家、学者与企业代表围绕“情感识别”、“具身情感表达”、“情感交互伦理风险”三大议题,展开热烈讨论,形成多项关键共识。
(一)议题 1:如何有效识别人类情感
王中卿(苏州大学)指出,人类情感表达往往极为隐晦,仅凭单一模态难以准确识别。语音虽可反映情绪强度,但不同个体的音调、节奏差异巨大;图像能捕捉面部表情,却难区分“礼貌微笑”与“压抑悲伤”。因此,多模态情感识别应强化语音、图像、文本的协同理解,通过跨模态特征互补弥合单模态的不确定性。
杨巨峰补充,多模态并不应局限于视觉与听觉通道,还应关注生理信号、神经响应等更深层的情感载体。他指出,传统的图文音视频模态已显现融合瓶颈,而心率、皮肤电、呼吸频率等生理指标能够为情绪状态提供更直接的量化依据。
王崇骏从数据融合角度提出结构化解决思路。他认为,多模态融合的核心问题在于如何划定模态之间的互补边界。每个模态都可分为“全局信息”和“局部特征”两部分,全局部分可用于情感类别的宏观判别,局部部分则承载微观差异与个体特征。然而,不同模态贡献的价值权重难以统一确定,若融合策略不当,反而可能削弱模型的判别力。
朱昊从模型结构出发,提出“识别—生成一体化”的技术闭环构想。他指出,当前情感识别受限于数据稀缺和标注代价,可通过生成模型构造高质量的情感样本,再以识别模型的反馈优化生成真实性,形成互促机制。同时,杨巨峰在此基础上建议引入跨模态语义检索,使模型在共享语义空间中完成情感对齐与推理,实现识别、生成、检索的统一闭环。这一思路有望在数据不足与模态对齐难题间取得平衡。
王立雄(火山引擎)则从具身智能落地出发,提出具身情感系统应当由“大脑—小脑—本体”三层结构协同驱动:大脑承担情感理解与规划,小脑负责即时响应与动作控制,而本体层则连接感知与环境,实现真实交互的闭环。在具体实现上,他强调三点关键路径。其一是数据维度,需在真实交互中采集多样化、伦理合规的具身数据,确保模型在识别与生成情感信号时的泛化能力与公平性。其二是模型架构,应在传统视觉语言模型基础上引入情感动态建模与个性化理解机制,让模型能捕捉细微的语音韵律与表情变化,从“识别”迈向“理解”。其三是记忆系统,建议在架构中融入长时记忆与长时模块,以维持情感表达的连贯性与上下文一致性。
其他与会嘉宾和观众从不同维度补充了潜在突破方向:
1. 情感复杂性建模:应从离散情绪类别走向多维连续表示,探索“复合情绪”的结构化定义。
2. 跨学科融合路径:引入心理学、认知科学与社会学理论,构建可解释的情感知识图谱。
3. 个体与文化因素:将性格特质、文化背景等长期变量纳入模型参数,结合序贯决策方法实现动态更新。
4. 具身数据伦理与多样性:在真实交互中采集情感数据时应确保隐私与伦理合规,避免文化与性别偏差。
5. 生态协同与开源建设:推动多模态情感识别数据集与模型的全球共享,建立开放评测体系,提升研究可复现性与场景泛化能力。
观点小结:
有效识别人类情感需多模态协同,更可扩展至心率、神经响应等生理信号,获取更直接的情感量化依据。针对多模态数据稀缺、模态对齐难的问题,构建“识别+生成+检索”飞轮是关键解法。落地层面要抓三大核心:用真实合规数据保障泛化性,靠动态建模与个性化机制捕捉细微情绪,以长时记忆维持情感连贯性。
(二)议题 2:具身智能如何模仿人类进行情感表达
围绕“具身智能情感表达”,高校、科研机构及企业的专家学者、行业从业者齐聚一堂,结合学术研究、技术实践与应用探索,深入剖析具身智能情感表达领域的现状、关键问题与发展方向,碰撞出丰富的思想火花。与会专家普遍认为,当前具身智能的情感表达仍处于非常初步的发展阶段。这一现状既意味着技术尚未成熟,也预示着巨大的探索空间与学术价值。
王崇骏从技术角度出发,认为情感表达的核心价值在于“表现得像人一样”。这要求机器智能在情感表达中要像人一样具有时序性,需要构建情感转移矩阵,以表现情绪的变化。
朱昊分享前沿探索与行业痛点。三维建模被认为是具身智能情感表达落地的关键支撑,机器人的实体交互、情感的肢体呈现都离不开高质量的三维数据。早期通过解剖学分析,将人脸表情拆解为运动单元进行建模的方式已逐渐发展,现阶段行业更倾向于探索无先验的全数据驱动方案,但高质量三维数据获取难、数量少仍是主要瓶颈。
王立雄分享通过仿真合成数据弥补真实数据不足的实践,例如利用3D生成模型,基于图片或语言输入生成海量3D资产与仿真数据,应用于汽车等行业的具身智能场景。同时,技术研发也面临两大核心挑战:一是3D生成模型的空间理解能力不足,二是情感表达的持续性与实时性融合难题,未来需通过构建“世界模型”实现多维度突破。
常雪亮提出,具身智能的人格化设计需贴合用户需求,例如青少年更偏好积极心理学导向的情感支持,而年龄增长后会更倾向于理性分析式的情感反馈。人格化实现不仅需要提示词设计,更需结合特定领域数据进行模型微调,专业数据积累是提升情感表达适配性的关键。
毛启容(江苏大学)提出情感表达应注重深层共情与场景适配。心理学专家将情感理解与认同分为三个层次,从表层情绪识别,到情绪原因解析,再到深层心理机制与成长背景挖掘,这种分层逻辑为具身智能的情感表达提供了重要启发。技术实现中,既可以通过表情、生理信号等自下而上识别情绪,也可通过上下文认知推理实现情感反馈。
现场观众指出,当前不少技术仅能实现表层的情感相关处理,例如识别词汇语义关联、区分笑脸与哭脸等具象表情,但这并非真正的情感表达建模。真正的情感模仿应具备抽象情感的一致性:无论接收视觉、文本、语音等何种模态的输入,具身智能所呈现的情感反馈应保持内在逻辑统一。由此引发关键疑问:具身智能是否需要构建独立的抽象情感子空间或专门的情感处理模块,类似人类大脑的情感相关皮层功能?这一模块的存在是否会带来可被攻击的安全风险?
此外,在场多位专家和学者指出,肢体动作作为情感表达的重要载体,其控制系统的复杂性也应当受到关注,如何实现动作与表情、语音的协调统一,成为具身智能情感表达的重要课题。针对该问题,提出“数据+知识+物理”的融合范式,认为单纯的数据驱动存在局限性,结合已有知识与物理规律才能提升模型的可靠性。
观点小结:
具身智能模仿人类情感表达仍处初步阶段,既存技术短板也藏巨大探索空间。贴近人类情感表达逻辑需具备时序性以呈现情绪变化,无论接收何种模态输入,情感反馈需保持内在逻辑统一;人格化设计要匹配用户偏好,需结合领域数据微调模型,专业数据积累是关键;此外,肢体动作作为重要载体,需实现与表情、语音的协调统一,单纯数据驱动有局限,需通过“数据+知识+物理”融合范式提升模型可靠性。
(三)议题 3:完美拟人情感交互的伦理红线与风险
针对情感交互可能引发的伦理风险,与会嘉宾们深入剖析具身智能在追求完美情感交互过程中潜藏的多重风险与伦理挑战。与会嘉宾和观众从不同维度展开思辨:
1. AI情感交互的伦理风险本质是人类社会自身问题的延伸,现实中未被满足的情感需求、成就欲望,使得部分人容易对AI产生依赖,而资本对用户粘性的追求可能加剧这一问题。另有嘉宾强调,技术本身无善恶,但企业的研发导向与边界设定至关重要,若产品忽视心理安全性,过度迎合用户可能触发伦理红线。同时,责任界定成为争议核心:AI内部可能蕴含多元甚至冲突的知识,交互时的“状态坍缩”使其难以实现绝对完美,这种不完美引发的风险,应由技术研发方、产品运营方还是用户承担,各方观点仍需进一步共识。
2. 技术研发与伦理约束可采用“分工接力”模式,情感计算、人工智能技术研发和从业人员可聚焦技术突破,推动情感交互能力升级;由人文社科领域专家聚焦建立伦理边界。
3. 需主动设置安全防线,如建立内容审核团队、制定心理安全性标准,针对自杀危机等特殊场景触发人工援助机制,避免伦理失范。制度规范层面,构建多层级约束体系,从国家法律法规、行业协会规范,到企业伦理委员会建设与个人伦理教育,形成全方位约束。同时,应尽快建立行业通用标准与安全测试集,要求情感陪伴类模型通过第三方评审后方可落地,防范行业性风险。
4. 完美情感交互可能引发三大核心风险。内容层面,存在虚假信息传播与用户情绪诱导的隐患,类似大数据“裹挟”消费决策的逻辑,情感交互中的过度迎合可能误导用户行为,甚至引发安全问题。隐私与成瘾方面,情感陪伴类产品若过度追求用户粘性,可能通过病态迎合强化用户依赖,导致人类疏远现实人际关系,青少年等群体更易出现成瘾风险,进而影响心理健康。价值观层面,不同社会的价值观存在差异,AI情感表达若缺乏针对性约束,可能违背特定社会的公序良俗,甚至传递错误价值导向。此外,嘉宾们还担忧,完美情感交互可能削弱人类真实沟通能力,长期发展或对人际关系与社会结构产生深层影响。
观点小结:
完美拟人情感交互的伦理风险本质是人类社会问题的延伸,部分人因情感需求未满足易对AI产生依赖,资本对用户粘性的追求可能加剧此问题;技术本身无善恶,但企业研发若忽视心理安全性、过度迎合用户,易触碰伦理红线。应对需分路径推进:技术人员聚焦情感交互能力突破,人文社科专家负责构建伦理边界;同时主动设安全防线,如建内容审核团队、定心理安全标准,特殊场景触发人工援助,制度上需多层级约束(国家法规、行业规范、企业伦理委、个人教育),并尽快推行业通用标准与安全测试集,第三方评审后落地。
四、论坛总结:情感计算需“技术+伦理”双轮驱动,迈向人本主义未来
两位执行主席对本次研讨进行总结。本次论坛清晰展现了情感计算领域的“机遇与挑战”:一方面,技术已从语言共情迈向具身交互,在青少年心理、人机协作等场景展现出巨大潜力;另一方面,个性化对齐、多模态融合、伦理安全等问题仍需突破。
与会专家共识认为,未来情感计算的发展需坚持“技术+伦理”双轮驱动:在技术层面,需加强跨学科合作(计算机+社会学+认知科学)、产学研协同(如高校与企业共建情感数据集);在伦理层面,需建立“国家-行业-企业-个人”的多层级约束体系,确保技术不偏离“服务人类”的初心。
本次CNCC技术论坛为情感交互领域的学术研究与产业实践搭建了桥梁。未来,将继续推动该领域的交流与合作,助力智能交互真正迈向“真情实感”的新阶段,为人工智能的可信、可靠发展贡献力量。
点击“阅读原文”,加入CCF。
