改进YOLOv11的复杂场景下行人检测模型
DOI:
CSTR:
作者:
作者单位:

1.河北科技大学信息科学与工程学院;2.河北传媒学院人工智能学院;3.中国人民解放军91001部队

作者简介:

通讯作者:

中图分类号:

基金项目:

国家自然科学基金专项项目(62441401);国防基础科研计划项目(JCKYS2022DC10)


Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对由于光照、角度、背景干扰及行人目标太小等复杂场景的影响会导致行人检测精度下降,容易出现误检或漏检等问题,提出了一种基于改进YOLOv11n的行人检测模型YOLOv11-CREP。首先,引入由Conv卷积和空间深度转化卷积(space-to-depth convolution,SPDConv)融合形成的CSPDConv,使模型减少信息的丢失并增强了对重要细节的提取。其次,提出了RepNCSPELAN4-GC模块,其利用幽灵卷积GhostConv对RepNCSPELAN4进行改进,减少了RepNCSPELAN4模块的参数量,并使用改进后的RepNCSPELAN4-GC模块来替换Neck层部分C3k2模块。然后,将高效多尺度注意力(efficient multi-scale attention,EMAttention)和并行网络注意力(parallel network attention,ParNetAttention)融合成新的EMPAttention注意力,使用EMPAttention模块来增强模型对小目标行人的检测能力。最后针对小目标行人和遮挡目标的特性,新增小目标检测头P2来增强模型对小目标的识别能力。实验表明,YOLOv11-CREP与原始的YOLOv11n模型相比,平均精度(mean average precision,mAP)在IoU阈值0.5时提升4.6个百分点,达到95.3%;在IoU阈值范围0.5:0.95时提升9.0个百分点,达到70.2%。所提模型兼顾高检测性能和实时性要求,有效提升了复杂场景下的行人检测性能,为行人检测任务建模提供了参考。

    Abstract:

    参考文献
    相似文献
    引证文献
引用本文
分享
相关视频

文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2025-05-14
  • 最后修改日期:2025-08-20
  • 录用日期:2025-09-01
  • 在线发布日期:
  • 出版日期:
文章二维码