首页 > 最新动态 > 申报倒计时7天丨CCF-联想蓝海科研基金-下一代计算设备和交互创新(第一批)
最新动态
申报倒计时7天丨CCF-联想蓝海科研基金-下一代计算设备和交互创新(第一批)
2024-09-054



2024年CCF-联想蓝海科研基金-下一代计算设备和交互创新(第一批)于2024年8月12日启动申报,申报截止时间:2024年9月12日24:00(北京时间),目前距离申报截止仅剩7天,欢迎CCF会员积极申报。



2024年CCF-联想蓝海科研基金-下一代计算设备和交互创新(第一批)共发布6技术挑战类+1项科学探索类课题,科学探索系课题为本年度蓝海科研基金新增的课题分类,鼓励前瞻创新,帮助申请人开展新边界探索,科学探索类以思想交流和学术报告为主要交付内容。




申请条件


本基金将面向符合如下条件的海内外高校及科研院所青年学者展开:


1.申请者必须是高校/科研院所在职的全职教师或研究人员,青年学者优先(申请当年未满40周岁);

2.申请者具有独立进行研究工作的能力,并带领学生团队共同参与课题研究与实践;有成功校企合作经验者优先。

3.申请者具有博士学位或有研究生指导资格;

4.每位申请人限提交1份申请;

5.CCF会员。




课题资助金额及期限


技术挑战类课题资助人民币:30万元/项;

科学探索类课题资助人民币:10万元/项。

项目研究期限为一年,对于合作成果较好的项目可以滚动支持。




申请流程


2024年8月12日:通过CCF发布基金申报指南

2024年9月12日24:00(北京时间):申报截止

2024年9月-10月:课题评审并公示评审结果

2024年10月-11月:联想授权CCF与项目承担单位签署合作协议并启动项目合作

注:具体研究计划、交付要求、知识产权等,由CCF与项目承担单位签署项目合作协议另行约定。




申请方式


申请者需点击"阅读原文"下载并填写申报书,发邮件提交申报书至联想高校合作官方邮箱:unirelations@lenovo.com并抄送

zhanglx2@lenovo.com(张柳新)邮箱。标题需要注明【申报:CCF-联想蓝海科研基金】。

或者直接电话或微信联系联想高校合作经理 邢悦18810382894。


2024年8月30日CCF联合联想通过线上直播的形式举办了本基金宣讲会,可关注CCF视频号点击直播回放查看。





技术挑战类课题




课题1:桌面3D环境下新形态控制器及反馈机制研究


研究背景:随着空间计算时代的到来和裸眼3D设备的普及,桌面交互环境正在从2D向3D转变。然而,用户在3D空间中的交互面临诸多挑战。这些挑战一方面源于用户自身的感知、认知和运动能力,另一方面也受限于现有输入和输出设备的局限性。例如,键盘和鼠标的输入带宽有限,无法提供多自由度的操作,且反馈方式单一,难以满足用户在不同3D场景下的交互需求。因此,迫切需要探索适用于裸眼3D设备的新形态控制器。


研究内容:本课题旨在面向桌面环境下的显示器、一体机、笔记本等裸眼3D设备,探索具有商用潜力的新型交互附件类控制器,包括以下内容:

①交互附件的价值分析:从3D空间交互挑战出发,调研业界同类竞品,结合裸眼3D设备的应用场景,论证本交互附件的价值。包括所解决的交互问题、技术领先性、与其他输入模态(鼠标/手/眼/语音)的协同交互关系论证等。 

②交互附件硬件形态定义与搭建:开发接近产品化水准的硬件原型,并能够适配联想裸眼3D设备。

③完整的交互技术框架构建与验证:包括交互方式、交互原语、反馈机制等,并进行相应技术评估。


研究目标:本课题的目标是开发适用于联想桌面3D PC设备的交互附件,提供自然、高效的3D交互方式,提升用户在裸眼3D PC设备上的交互体验。可从两方面进行评估:输入效率方面,相比2D鼠标及业界现有竞品,在目标选择、目标操纵等基础任务上的平均完成时间与错误率降低15%以上;反馈机制方面,对于NASA-TLX、SUS等主观量表,平均正向得分提升10%以上。最终形成引领行业标准的交互范式。


产出及交付物:

①交互附件价值分析报告与交互技术框架设计报告;

②一套交互附件硬件与交互技术展示Demo(应用于联想桌面裸眼3D PC设备);

③在人机交互领域的CCF-A类或期刊发表1-2篇论文;申请2项相关专利。



课题2:人与大模型协同知识增强交互流构建


研究背景:当前大模型的服务主要是根据用户输入的prompts来响应式地与用户进行沟通。在这种方式下,用户需要调整不同prompts观察输出结果来不断尝试,难以理解大模型的能力边界,同时大模型也依赖用户输入的prompts作为唯一的交流窗口,缺乏对完整全面情景的感知和对用户意图的深入理解。本课题旨在构建一套人与大模型协同的自动化交互流,实现知识增强任务场景下人与大模型的自然、高效、无障碍沟通方式。具体包括:(1)基于情景感知和用户意图理解,自动识别和提取跨平台、多模态相关知识信息;(2)提供用户交互原则和交互流构建,使系统在确保相关性、有效性的同时避免频繁打扰用户;(3)提供根据人类反馈更新的系统功能,帮助用户根据模型结果调整任务与交互定制。


研究内容:研究基于人与AI大模型协作的跨设备、多模态知识增强方法。通过构建人与AI大模型交互流,结合跨平台/多模态数据提取技术和AI大模型,提升任务相关知识识别、提取与增强的能力,优化系统在主动增强、适时增强和交互增强等方面的表现,构建高效的自动化知识增强交互流。


研究目标:

①任务完成效率/质量相比基线条件有显著性提高

②用户主观体验(如用户满意度、认知负荷等)相比基线条件有显著性提高


产出及交付物:

①系统原型:交付一套构建自动化知识增强交互流系统及其源代码

②通过用户实验总结知识增强人机协同指南,包括交互流程、交互时机、交互自动化程度等方面

③发表人机交互CCF-A类论文1 -2篇

④申请2项相关专利


课题3: 桌面3D指定任务中手眼协同行为建模的视线校准与目标选择技术研究


研究背景:桌面显示正快速从二维(2D)到三维(3D)空间变革,亟需探索适合三维界面的输入技术,其中手眼协同输入因其潜在自然高效特性,成为人机交互领域的重要研究方向。然而,现有方案面临诸多原理与技术挑战,包括自然手眼协同交互的高效性尚未得到充分验证,视线估计精准性与预校准机制带来的用户体验下降等,导致当前手眼协同交互的应用场景中用户交互效率不足,主观体验差。因此,亟需解决桌面三维界面中手眼协同交互的原理与技术难题,提升用户使用体验。


研究内容:本课题旨在研究手眼协同交互的必要性与有效性,并对用户在3D空间中自然手眼协同行为进行建模,为后续技术研发提供理论、方法与参数支撑。基于自然手眼协同行为模型,创新眼动视线的隐式校准技术,实时校准用户眼动视线,在桌面3D环境中实现准确、高效、自然的手眼协同输入技术,推动其在实际应用中的普及和发展。


研究目标:1)手眼协同交互有效性的验证:通过实验和应用场景测试,系统地验证手眼协同交互在3D环境中的必要性和有效性。2)用户自然眼手协同行为的建模:研究用户在3D空间中自然的眼手协同行为,建立相应的行为模型,为后续研究提供理论基础和参数支撑。3)眼动视线的隐式校准技术创新:基于自然的眼手协同行为模型,创新开发出一种隐式校准技术,能够在用户使用过程中实时校准视线,提高眼动追踪的精度和稳定性。4)手眼协同精准目标选择确认技术:基于自然的眼手协同行为模型和隐式视线校准技术,研究和开发一种高精度的目标选择确认技术,达到用户长时间使用无明显眼部疲劳感,并对于目标选择的准确性有明显提升。


产出及交付物:

①必要性与有效性报告:面向桌面3D环境手眼协同交互有效性验证的实验设计、流程与测试结果,必要性和有效性分析,适合手眼协同交互的场景至少3个。

②技术算法:1)眼动视线隐式校准算法:基于自然手眼协同行为模型,实现眼动视线的隐式校准算法,在单维度2cm目标选择任务中,与显式预校准方法相比,视线估计精度显著提高或无显著差异(可以使用Tobii眼动仪等设备进行验证)。2)手眼协同精准目标选择确认技术:在经典目标选择任务上,效率与精度上显著优于无手眼协同的现有方案;额外增加的眼动视线技术的对比性用户实验中,用户使用30分钟无明显眼部疲劳感。

③原型系统和应用演示:基于本项目技术研发的桌面3D环境手眼协同交互原型系统以及应用演示视频。

④研究报告:包含但不限于用户自然手眼协同行为模型及其分析总结,项目相关技术方案和实现细节,交互效率与用户体验提升的实验证据,用户实验设计与测试结果等。

⑤学术论文和专利申请:发表不少于1篇相关领域的CCF-A类学术论文;申请不少于2项中国技术专利。


课题4: 通过WiFi网卡,实现高精度对不同体积物体的区分


研究背景:随着WiFi技术的发展和使用场景的不断涌现,对WiFi的性能和驱动算法要求越要越高,同时基于WiFi信号的特征提取来创造新的使用场景也愈发强烈。尤其是基于产品端利用既有WiFi和天线实现物体的侦测识别也面临着诸多的挑战:

①WiFi 网卡不仅要实现系统要求的信息无线收发功能,还要同时支持相关的侦测识别;

②产品端一般要求全向天线,但是若是更好的实现规定区域范围内的WiFi侦测识别,定向天线又会更好;

③WiFi侦测识别的软件算法,实现基于WiFi的更好更灵敏更AI智能化的场景交互,固然需要更多的信息计算量,但又期望占用系统的loading不要过高;基于目前常规的方案越来越难以胜任,场景的误触发率至关重要,尤其是对于人与宠物或者授权使用者与非授权人员的区分鉴别,都决定着方案能否更好的提供一个人机交互的体验。


研究内容:本课题期待通过对这些关键技术的突破,首先实现人与宠物的区分,进而有机会实现不同使用者的区分。建议研究方向:

①可以参考802.11bf,开发对于物体的侦测识别算法模型;

②算法模型的AI智能化,能够根据环境场景,有一定的自主学习改善能力,能够基于不同场景提供更适合的参数设置方案;

③WiFi侦测识别的鲁棒性控制算法,能够抗干扰,不易受外界因素导致系统性能衰减严重。


研究目标:

①目标:有效侦测距离:屏幕前方0.8~1.0m;有效侦测范围:135°角;响应时间:<1s;精准度:>99%

②评估:参考802.11bf, 开发WiFi 对于物体侦测的算法模型;依据现有整机的天线参数,调整适配机器的算法方案;针对搜集的WiFi CSI数据信息,进一步利用AI进行学习训练,智能识别不同物体产生的不同场型,从而智能识别判断


产出及交付物:

①算法原型:完成基于WiFi实现对不同物体侦测判断的设计,交付一套基于WiFi实现物体侦测识别的系统/软件及其源代码  

②论文 :发表联想认可期刊论文1-2篇

③报告:完成基于WiFi或者无线相关技术实现智能交互方向的报告2篇

④专利:提交发明专利2项


课题5: 机器人移动到目标正面路径算法的研究


研究背景:在机器人看护领域,特别是在居家环境中,机器人具备摄像头和移动能力来为用户的安全和提供必要的帮助。但如何识别用户的正脸,并实时提供服务是一个难题,尤其是机器人在距离较远时更是无法和用户面对面沟通,因此研究识别用户的方位,用户的朝向以及和机器人的距离就很有必要,识别后可以通过机器人的移动能力移动到用户的正面,进而陪伴用户。


研究内容:本课题期待通过对这些关键技术的突破,首先实现对用户(非移动状态下并且不配合的情况下)的朝向和距离的识别,结合地图生成最优的陪伴位置,然后生成最佳移动路径。建议研究方向:

①机器人位姿和用户的位姿在各种不同的状态,如何识别用户,以及识别用户的方位及朝向和机器人的距离等。

②开发对于人体/人脸朝向的侦测识别算法模型。

③算法模型的AI智能化,能够根据环境场景,有一定的自主学习改善能力,能够基于不同场景提供更适合的最优的陪伴位置。

④侦测识别的鲁棒性控制算法,能够抗干扰,不易受外界因素导致系统性能衰减严重。

⑤结合地图生成最优的陪伴位置,该位置是一个地图中的矢量位置,给机器人下发目标点位矢量信息和朝向,最终实现机器人面对用户的结果。


研究目标:

①目标:在人和机器人同处室内空间小于50.0平方米,处理完成时间:<0.5 s;精准度:>99%

②评估:开发人体侦测的算法模型;开发检测人脸朝向算法模型;判断自身和人的距离。然后形成移动路径;需要智能处理用户的各种姿态,例如坐,站,蹲;各种朝向,例如朝向摄像头,背对摄像头,侧对摄像头等各种情况。针对各种情况的数据信息,进一步利用AI进行学习训练,从而智能识别判断处理不同的场景。


产出及交付物:

①算法原型:完成基于图像实现对用户朝向和距离判断,然后生成移动路径和距离,交付一套基于图像识别的系统/软件及其源代码  

②论文 :发表联想认可期刊论文1-2篇

③报告:完成基于图像识别技术实现智能控制的报告2篇

④专利:提交发明专利2项

注:自动化相关背景研究人员优先


课题6: 通过Color Sensor ,高精度提取物体颜色/纹理特征


研究背景:主动电容笔是当代数字化技术+传统笔组合创新衍生出的技术方案,该方案目前主要是笔和触控屏之间的交互,还原传统笔迹原型,如铅笔/钢笔/中性笔/马克笔等。在无纸化学习/工作趋势影响下,电容笔的市场渗透率持续增长,笔写APP应用生态也越来越成熟,用户对于电容笔的需求和期望值也越来越高。继引入Haptic技术还原自然书写触觉和声音沉浸式交互体验后,我们持续致力于有新的技术点研究和突破。目前研究方向是在书写/绘画/创作场景中,当设计师绘画/创作的时候,可以自由采集所需要色彩及纹理,让人机交互更自然,带来更好的体验。


研究内容:

①基于当前提供的Color sensor及笔硬件架构,研究相关算法,完成对发光物体和非发光物体颜色/纹理特征提取并还原

②研究当前Color sensor设计及光学设计仍需完善和增强的部分,进一步提升颜色/纹理提取的精度


研究目标:

①主要研究目标:基于当前Color sensor提供的颜色/纹理信息的Raw data及联想提供的笔固件开发平台,进行滤波、降噪等算法处理后,提取物体表面颜色和纹理特征;对当前的Color sensor及光学设计提出修改建议方向(首板Color sensor流片中)

②评估方法:1)测量显示屏42张标准图片,和目前CA410设备比较,色彩精准度JNCD<3;2)提取常见物体的纹理,如树叶/衣服/办公桌表面,将提取纹理信息的特征统计量如: 均值/方差/对比度/非相似性/相关性等与手机相机拍摄的图片进行,达到80%的还原水平


产出及交付物:

①算法原型:完成取色/纹理提取算法设计,交付算法开发文档说明及其源代码 

②Working demo 1套:展示笔写颜色和纹理提取,联想工程师Co-work平板系统和与笔通信部分

③发表CCF-A类论文1篇,申请发明专利2项







科学探索类课题




课题1: 桌面3D环境下增强人类五感六觉的交互技术研究


研究背景:随着3D技术发展,仅依赖视觉和听觉已不能满足用户对沉浸式体验的需求,触力觉、味觉和嗅觉等更多感官通道的输入能够带来更加真实和丰富的用户体验,使用户在桌面3D环境中产生更强烈的沉浸感和参与感。因此,探索和开发这些多感官增强交互技术具有重要的研究价值和应用前景。


研究内容:本课题旨在探索桌面3D环境下,视听觉之外的其他感官(触力觉、味觉和嗅觉等)增强交互技术。具体研究内容包括:

①多感官交互技术调研:调研学术界和业界的前沿多感官交互技术,分析其应用于桌面3D环境的可行性。

②多感官交互场景设计:探索与桌面3D环境相结合的创新交互场景,确保多感官信号与场景内容的一致性和协调性

③技术验证与优化:开发原型系统,对多感官交互技术进行实验验证与性能优化,提升用户体验。


研究目标:基于视听觉外的其他感官通道的增强交互技术探索1-3个top应用场景,提升用户在桌面3D环境中的沉浸体验,为未来联想裸眼3D PC的多感官交互系统研发提供参考和指导。


产出及交付物:

①视听觉外的其他感官通道增强交互技术相关报告

②技术分享及交流2次。






点击“阅读原文”,下载【项目申请书】。

点我访问原文链接