相机和LIDAR融合的无人车道路目标检测定位系统
DOI:
作者:
作者单位:

南京航空航天大学自动化学院

作者简介:

通讯作者:

中图分类号:

TP242.6

基金项目:

南京航空航天大学研究与实践创新项目


Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    作为无人车环境感知过程中的两个重要传感器,相机和激光雷达各有优劣。相机无法提供道路目标的位置信息,且易受到光照等环境的影响;激光雷达点云稀疏,检测方面难以达到很好的效果。通过传感器融合的方式融合两者信息以进行目标的检测和定位,能有效利用两者的优点并弥补了各自的缺点。本文通过标定获得相机内参,采用深度学习中YOLOv5算法进行目标的检测;再使用16线激光雷达进行点云数据获取,通过联合标定进行相机与激光雷达外参的获取以转换传感器之间的坐标,使雷达点云数据能投影到相机图像数据中,最终得到检测目标的位置信息。实车实验表明,算法能在搭载TX2嵌入式计算平台的无人车自动驾驶平台上拥有27.2Hz的检测速度,并且在一段时间的检测环境中保持12.5%的漏检率和35.32m的最远识别距离以及0.01m的定位精度。

    Abstract:

    参考文献
    相似文献
    引证文献
引用本文
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2023-08-01
  • 最后修改日期:2023-08-01
  • 录用日期:2023-10-31
  • 在线发布日期:
  • 出版日期:
文章二维码