首页 > 最新动态 > 免费学!具身智能中的视觉-语言-动作(VLA)大模型 | CCF数图焦点第97期
最新动态
免费学!具身智能中的视觉-语言-动作(VLA)大模型 | CCF数图焦点第97期
2026-03-0627

点击底部“阅读原文”,有兴趣的都可以免费学习


编者寄语

具身智能正加速向全场景通用化迈进。近期视觉-语言-动作(VLA)大模型的涌现,为突破泛化性差、依赖大量标注数据、难以适应开放环境等限制,提供了关键路径,但仍面临场景数据稀缺、跨具身智能体迁移难等挑战。攻克VLA关键技术,不仅关乎抢占具身智能技术制高点,更是推动机器人从“专用”走向“通用”的关键路径,兼具学术前沿性与产业落地价值。


本期数图主要选取了6份来自CCF数字图书馆的高质量资源,涵盖VLA模型演进、合成数据赋能、世界模型驱动及跨具身泛化等核心议题,兼顾理论深度与工程实践,帮助读者把握VLA技术脉络与未来方向。


编委主任:

苏金树 CCF会士 军事科学院教授

本期主编:

安   山 CCF智能机器人专委常务委员 天津大学英才副教授

点击底部阅读原文,有兴趣的都可以免费学习


目录


点击底部“阅读原文”,可免费学习第97期详细内容





图片

点击“阅读原文”浏览《CCF数图焦点》第97期详细内容。

点我访问原文链接