金融界2025年4月28日消息,国家知识产权局信息显示,清华大学;北京智芯微电子科技有限公司申请一项名为“基于眼动数据集的机器人自动驾驶控制方法及装置”的专利,公开号CN119882558A,申请日期为2025年1月。专利摘要显示,本申请涉及机器人自动驾驶控制技术领域,特别涉及一种基于眼动数据集的机器人自动驾驶控制方法及...
在前一段时间,我们进行了线上的直播教学,有很多实操的部分需要眼动数据来操作,这部分直播内容可以在B站上搜索到,其中涉及到数据集的问题,有人问我要相关的数据集。其实,在很多软件中,有自带的数据集,比如EyeLink软件中DV可在SR Research文件夹中搜索到。当然,除此之外,我们还可以利用眼动研究中公开的数据集。今...
2️⃣ SALICON SALICON数据集专注于视觉注意力建模,特别是基于眼动数据的显著性检测任务。它包含了大量图像及其对应的显著性图,这些显著性图是通过人类观察者的眼动数据生成的。3️⃣ MPIIGaze 由MPI(Max Planck Institute for Informatics)发布,这个数据集包含了不同用户在自然环境下采集的眼动数据,特别适合用...
在Pupil Cloud中,我们可以通过热图直观地查看观众的凝视分布,但最终我们需要的却是数字:用量化的数据来解答这些问题。因此,AOI分析成为了理解视觉探索的关键工具。如何定义AOI:嵌套与分布式AOI的区别 在移动眼动追踪的研究中,AOI的定义是至关重要的一步。具体来说,当AOI彼此靠近时,可以将它们放在同一参考图像中...
眼动数据集由三种数据构成:刺激材料,显著性图和眼动数据。如图5所示,董教授团队为不同的研究提供了三种不同结构的眼动数据:视觉显著性图、被试眼动数据和刺激材料眼动数据。 荐读 周成虎院士:遥感,让地球更安全 【打造目标解译人才社群,构建地理空间情报生态】——“解译通”重磅上线!
训练集与测试集导出 利用chr=[num2str(i),'-train_data.mat']; save(chr1,'train_data');语句将训练集/测试集存取,其中num2str(i),i表示第i个训练集/测试集。发布于 2019-09-02 20:06 眼动研究 数据分析 交叉验证 赞同22 条评论 分享喜欢收藏申请转载 ...
目前,利用眼动数据探究视觉注意机制的研究仍限于二维场景。研究者尚未能从时间和空间的角度出发,在三维虚拟场景里研究这一问题。为此,我们构建了第一个用于虚拟博物馆视觉注意建模的三维眼动数据集,命名为EDVAM。我们还建立了一个深度学习模型,通过历史眼动轨迹预测用户未来的视觉注意区域,用于测试EDVAM。这项研究能...
(全球TMT2024年6月21日讯)眼动追踪技术的全球领导者和注意力计算的先驱,Tobii推出了一款仅基于软件的眼动追踪数据集成平台--Tobii Nexus。此前的集成平台都是基于硬件,而现在可以将解决方案作为软件交付,简化了市场推广策略,减少了空间使用,并降低了设备设计者和应用开发者的进入门槛。Tobii Nexus可以感知人们...
传统的眼动追踪系统需要直接对准眼睛进行观测,在一些复杂环境下(比如光线变化大的地方)就容易 “失灵”,而且成本较高。现有的 EOG 数据集大多聚焦于技术性能和实际应用,却忽视了对认知能力的评估,这就如同在拼图游戏中缺失了关键的几块,使得我们对人类空间导航能力的认知不够完整。
眼动追踪集成的眼镜,可将数据带入任何场景 BIOPAC Systems, Inc.宣布了一项适用于研究人员的眼动追踪集成新方案,让这些研究人员能从不同位置的移动参与者进行实验。ETVision (EYE-ETV)眼动追踪眼镜现在已经与BIOPAC无线系统和软件集成,无论受试者是在实验室、野外、工作场所、运动场所还是任何研究场所,都可以让研究...