论文题目: Anchor3DLane: Learning to Regress 3D Anchors for Monocular 3D Lane Detection 作者列表: 黄少飞 (中国科学院信息工程研究所),沈振伟 (图森未来),黄泽昊 (图森未来),丁子涵 (北京航空航天大学),戴娇 (中国科学院信息工程研究所),韩冀中 (中国科学院信息工程研究所),王乃岩 (图森未来),刘偲 (北京航空航天大学) B站观看网址: 论文摘要: 由于缺乏深度信息,单目3D车道线检测是一项具有挑战性的任务。一种主流的解决方案是首先使用逆透视变换 (IPM) 将前视 (FV) 图像或特征转换到鸟瞰 (BEV) 空间,并从BEV特征检测车道。然而,IPM对地平面假设的依赖和其上下文信息的丢失会导致3D坐标估计不准确。另一类方法尝试摆脱BEV表示并直接从FV表示来预测3D车道线,但由于缺乏3D车道线的结构化表示,它在性能上要弱于其他基于BEV的方法。我们提出了Anchor3DLane车道线检测方法,该方法摒弃了3D车道线检测方法中常用的BEV检测范式,通过定义3D空间中的Anchor对车道线进行结构化建模,并将其投影至2D图像特征上采样特征,从而达到直接由2D图像特征回归3D车道线坐标的目的。这种投影-采样的方式具有较好的扩展性,可以扩展至多阶段车道线回归、多帧车道线特征融合等更复杂的检测框架。此外,我们还提出等宽优化算法,利用车道线的等宽特性对预测结果进行后处理优化,从而进一步改善车道线的横向误差。在三个常用的3D车道线检测基准数据集上进行的大量实验表明,我们的Anchor3DLane优于之前基于 BEV 的方法,并实现了最先进的性能。 论文信息: [1] Shaofei Huang, Zhenwei Shen, Zehao Huang, Zi-han Ding, Jiao Dai, Jizhong Han, Naiyan Wang, Si Liu, “Anchor3DLane: Learning to Regress 3D Anchors for Monocular 3D Lane Detection”, in Proceeding of IEEE Computer Vision and Pattern Recognition (CVPR 2023), Vancouver, Canada, June 2023 论文链接: [https://openaccess.thecvf.com/content/CVPR2023/papers/Huang_Anchor3DLane_Learning_To_Regress_3D_Anchors_for_Monocular_3D_Lane_CVPR_2023_paper.pdf] 代码链接: [https://github.com/tusen-ai/Anchor3DLane] 视频讲者简介: 黄少飞是中国科学院信息工程研究所在读博士生,她的研究方向包括自动驾驶感知、多模态内容理解和生成等,在CVPR、ECCV、TPAMI等会议和期刊上发表多篇论文。 特别鸣谢本次论文速览主要组织者: 月度轮值AC:王啸 (北京航空航天大学) 季度轮值AC:张磊 (重庆大学) |
小黑屋|手机版|Archiver|Vision And Learning SEminar
GMT+8, 2024-12-26 18:55 , Processed in 0.012898 second(s), 14 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.