综合要闻

微信扫一扫

正文

当前位置: 首页 >> 综合要闻 >> 正文

机器人学院张辉教授及杨恺伦教授联合指导论文被计算机视觉国际顶级会议ECCV 2024接收

文章出处: 发表时间:2024-07-10

近日,我校张辉教授和杨恺伦教授联合指导的论文《Occlusion-Aware Seamless Segmentation》被计算机视觉顶会ECCV 2024接收。

ECCV,全称为European Conference on Computer Vision,即欧洲计算机视觉国际会议,是计算机视觉领域中最顶级的会议之一,与ICCV(International Conference on Computer Vision)和CVPR(Conference on Computer Vision and Pattern Recognition)并称为计算机视觉领域的“三大顶会”。ECCV每两年举行一次,2024年录用率约27.9%。

该项研究由湖南大学、德国卡尔斯鲁厄理工学院(Karlsruher Institut für Technologie,KIT)和浙江大学合作完成。该论文的第一作者为我校博士研究生曹意宏,共同第一作者为德国KIT博士后张嘉明,指导老师为我校张辉教授和杨恺伦教授,合作者还有浙江大学博士研究生时昊、德国KIT博士研究生彭鲲宇、我校硕士研究生张羽宏宣和德国KITRainer Stiefelhagen教授。

全景图像因其广阔的视角、复杂的场景理解需求和不同视域之间的领域适应性问题,一直是计算机视觉中的重要研究方向。在这项最新研究中,团队提出了一种创新的任务,称为“Occlusion-Aware Seamless Segmentation (OASS)”,旨在同时解决狭窄视角、遮挡问题和视域间差异的挑战。

图1 OASS任务面临的挑战

为了评估和推广OASS的有效性,研究团队特别创建了一个全新的开源人工标注数据集,名为“Blending Panoramic Amodal Seamless Segmentation (BlendPASS)”。该数据集不仅为OASS的基准测试提供了平台,还为全景图像领域的研究提供了重要资源。

图2提出的UnmaskFormer方法

UnmaskFormer方法是团队针对全景图像语义分割问题的首个解决方案,其关键创新点包括“Unmasking Attention (UA)”和“Amodal-oriented Mix (AoMix)”等关键设计。通过这些创新设计,UnmaskFormer不仅在BlendPASS数据集上取得了最先进的性能,而且在公开的全景语义分割数据集SynPASS和DensePASS上也明显优于现有方法。