作者及机构
本研究的核心团队来自北京航空航天大学仪器科学与光电工程学院(Jialiang Shi, Jingchun Cheng*等)、长安汽车人工智能与智能驾驶实验室(Peng Wei)以及智能车辆安全技术国家重点实验室(Xiangyun Ren, Yifei Kang)。通讯作者为Jingchun Cheng(邮箱:chengjingchun@buaa.edu.cn)。该成果发表于2024年第五届IEEE国际计算机视觉、图像与深度学习会议(CVIDL),会议论文编号DOI: 10.1109/CVIDL62147.2024.10603519。
研究领域与动机
智能车辆定位通常依赖RTK-GNSS/IMU(实时动态-全球导航卫星系统/惯性测量单元)和高精地图,但存在成本高、信号易受遮挡(如高架桥、隧道)等局限性。针对这一问题,本研究提出了一种低成本稀疏视觉语义点云重定位方法,通过深度学习技术提取点云特征描述符,结合全局与局部匹配机制,实现无GNSS信号条件下的鲁棒定位。
科学问题
传统视觉重定位方法受光照变化影响显著,而激光雷达方案成本高昂。本研究聚焦以下挑战:
1. 稀疏性问题:视觉点云数据密度低,几何特征不足;
2. 语义缺失:现有方法未充分利用道路标志(如箭头、斑马线)的语义信息;
3. 初始化依赖:车辆启动时需高精度GNSS提供初始位姿。
核心模块
- 局部描述符编码器:融合几何坐标(x,y,z)与语义标签(l)生成联合特征。例如,将道路标志(蓝色标线、绿色箭头、红色斑马线)投影至不同高度以增强区分度(图2)。
- 正负样本判定机制:
- 欧氏距离阈值:正样本间距≤10m,负样本≥80m;
- 结构相似性评估:通过PCA(主成分分析)提取点云主方向,计算极坐标直方图的余弦相似度(公式2),避免误判几何结构相似的样本为负样本(图4)。
- 联合定位机制:
- 全局匹配:通过Top-k检索筛选候选子图;
- 局部匹配:基于局部描述符进一步优化,最终位姿误差需满足车道级精度(<5m)。
流程(图5)
1. 车辆运动时,利用粗粒度GNSS获取150米半径的先验地图;
2. 每移动20米采集一帧查询点云,与先验子图进行局部描述符匹配;
3. 若连续k帧匹配误差米,则初始化成功。
数据集
- 长安数据集1:重庆某区域33轮数据(单轮5km),包含训练集(绿色)与测试集(红色);
- 长安数据集2:另一区域20轮数据(单轮3km),用于泛化性测试。
评估指标
- 平均召回率(AR@n):前n个匹配中存在真值(误差<2m)的概率;
- 初始化成功率(SR)与位置误差(PE)。
在未见过的长安数据集2上,AR@1%达64.2%,表明方法对场景变化具有鲁棒性。
科学意义
1. 语义-几何融合:首次将道路标志语义嵌入点云描述符,解决稀疏场景下的特征歧义问题;
2. 样本选择创新:结合欧氏距离与结构相似性的双重判定准则,降低误匹配率;
3. 工程实用性:时序匹配机制减少对高精度GNSS的依赖,适配量产车辆低成本需求。
应用前景
该方法可部署于隧道、城市峡谷等GNSS拒止环境,为L4级自动驾驶提供冗余定位方案。未来可通过扩展语义类别(如交通灯、护栏)进一步提升性能。
(注:全文约1500字,涵盖方法细节、实验数据及学术价值分析)