采用AIGC检测的目的不是“抓到谁在用AI”,而是“发现是否违规使用AI”。“AI防伪”软件的重点应该是发现AI生成的伪造数据、图像和参考文献等内容,包括不真实的“幻觉”。
人工智能生成内容(artificial intelligence generated content, AIGC)技术的广泛应用,使学术界和教育界都面临新的伦理与治理挑战。一方面,“AI+科学技术”的普及让AI深度融入各项科研工作,应该鼓励全社会积极使用AI技术;另一方面,如果不规范AIGC技术的使用,学术界和出版界将面临虚假泛滥、信任丧失的严重局面。更重要的是,当人类逐步进入知识由人机共创的新时代,必须明确谁来承担伦理责任。鉴于学术成果的最终责任必须由人类作者承担,目前学校和出版社不接受全文或假设、推导论证和结论等核心内容都由AI生成的论文,为现阶段的论文发表和认可确定了边界。
“人类提供意义与价值框架,机器提供方法与认知扩展力量”,这已成为科学共同体新的契约,维持这一“契约”的基础是诚信体系。体现科学诚信的基本原则是透明性,即论文作者必须如实披露使用AI工具的过程。任何制度都是防君子不防小人,总会有人拿完全由AI生成的论文来冒充自己的作品。因此,检查一篇文章是否有AI生成的内容,就是必不可少的监督手段。
与一般的商品打假不同的是,识别和判断一篇论文中哪些部分是AI生成的,是件十分困难的事。现有判断一篇文章的“AIGC率”的软件工具大多基于统计特征,如困惑度、词频分布和句式熵等,其准确率和可靠性未达到司法鉴定级别的要求,实际应用中有许多误判,引起学术界和广大师生关注。这个矛盾是“科研诚信治理”与“AI鉴伪技术成熟度”之间的失配,是人工智能安全挑战的关键问题之一。传统的以文献搜索和查重为营业目标的企业难以应对这一重任,急需致力于人工智能领域最先进的伪造检测技术的团队和企业来攻关解决。
所谓“AIGC率”目前是一个“参考性风险评估指标”,而非精确的科学测量值,对维护科研诚信起到一定监督作用,但不能作为一票否决的法律依据,自动触发拒稿、撤稿等处分措施。采用AIGC检测的目的不是“抓到谁在用AI”,而是“发现是否违规使用AI”。“AI防伪”软件的重点应该是发现AI生成的伪造数据、图像和参考文献等内容,包括不真实的“幻觉”。在AI深度参与科研的时代,应当遵循“责任清晰、过程透明、价值主导”的原则,建立以责任与解释力为核心的新型共创伦理体系。这种伦理框架承认智能系统在知识创造中的正当地位,但应保证科学判断与社会责任牢牢掌握在人类手中。未来可能会建立新的学术范式,由类似开源社区的开放平台专门发表AI为主的学术成果,不仅公布结果,还要公开其诞生的过程;用“过程可追溯认证”取代“结果判定式检测”,在写作工具中嵌入“AI使用日志”与时间戳,自动记录AI辅助行为。在新的科技伦理框架下,人机协作将走向更规范更可信的新时代。
李国杰
CCF会士、名誉理事长,中国工程院院士,中国科学院计算技术研究所研究员。
本文发表于2025年第7期《计算》。
点击“阅读原文”,加入CCF。
