山东大学新闻网
山大邮箱 | 投稿系统 | 高级检索 | 旧版回顾

视点首页 > 学术纵横 > 正文

软件学院沈益冉、周元峰教授成果在CCF A类会议IEEE VR上获最佳论文奖

发布日期:2024年03月21日 18:38 点击次数:

[本站讯]3月16日-21日,虚拟现实研究领域的国际顶级学术会议(CCF推荐A类会议)IEEE VR (IEEE Virtual Reality Conference and 3D User Interfaces)在美国奥兰多召开。以山东大学软件学院硕士研究生张桐瑜为第一作者,沈益冉、周元峰教授指导的论文“Swift-Eye: Towards Anti-blink Pupil Tracking for Precise and Robust High-Frequency Near-Eye Movement Analysis with Event Cameras”获得了本次会议的最佳论文奖,沈益冉教授为该论文的通讯作者。这一工作的第一作者和通讯作者单位均为山东大学软件学院,是软件学院首次在计算学会推荐的CCF A类顶级会议上获得最佳论文奖。本次会议共有6篇论文获得最佳论文奖(获奖比例1%),Swift-Eye是唯一一篇来自中国的获奖论文。本论文相关工作由山东大学软件学院领衔,香港科技大学、北京工商大学合作共同完成。

undefined

本篇获奖论文主要研究的是高频眼动追踪问题。由于眼球在快速扫视期间速度可以达到很快(角速度可以达到700◦/s, 角加速度可以达到24,000◦/s2), 本团队的上一篇发表在NeurIPS2024的论文“EV-Eye: Rethinking High-frequency Eye Tracking through the Lenses of Event Cameras”,收集了一个事件与RGB图片组成的眼动多模态数据集。其中事件数据相比于RGB数据, 可以捕获高频率(微秒级)的眼动。Swift-Eye是EV-Eye的后续工作,其使用插帧模型Timelens, 将事件数据转变为可视化的眼动数据,使得研究人员更直观地对其进行研究。现有的瞳孔检测算法, 在眨眼过程中, 检测到的瞳孔会发生异常的形变, Swift-Eye提出使用旋转目标检测算法, 以利用瞳孔是椭圆这一先验信息,同时, 以自监督的方式,生成大量的眨眼数据来训练模型, 并使用时间域上的特征融合模块, 来辅助对遮挡瞳孔的检测。本论文中的消融实验, 证明了生成眨眼数据方法, 以及时间域上的特征融合模块的有效性。同时,在与其他瞳孔检测算法的对比过程中, Swift-Eye得到了最好的效果。

undefined


【供稿单位:软件学院    作者:沈益冉    摄影:沈益冉         编辑:新闻网工作室    责任编辑:蒋晓涵 周末  】

 匿名发布 验证码 看不清楚,换张图片
0条评论    共1页   当前第1拖动光标可翻页查看更多评论

免责声明

您是本站的第: 位访客

新闻中心电话:0531-88362831 0531-88369009 联系信箱:xwzx@sdu.edu.cn

建议使用IE8.0以上浏览器和1366*768分辨率浏览本站以取得最佳浏览效果

欢迎关注山大视点微信