摘要:针对由于光照、角度、背景干扰及行人目标太小等复杂场景的影响会导致行人检测精度下降,容易出现误检或漏检等问题,提出了一种基于改进YOLOv11n的行人检测模型YOLOv11-CREP。首先,引入由Conv卷积和空间深度转化卷积(space-to-depth convolution,SPDConv)融合形成的CSPDConv,使模型减少信息的丢失并增强了对重要细节的提取。其次,提出了RepNCSPELAN4-GC模块,其利用幽灵卷积GhostConv对RepNCSPELAN4进行改进,减少了RepNCSPELAN4模块的参数量,并使用改进后的RepNCSPELAN4-GC模块来替换Neck层部分C3k2模块。然后,将高效多尺度注意力(efficient multi-scale attention,EMAttention)和并行网络注意力(parallel network attention,ParNetAttention)融合成新的EMPAttention注意力,使用EMPAttention模块来增强模型对小目标行人的检测能力。最后针对小目标行人和遮挡目标的特性,新增小目标检测头P2来增强模型对小目标的识别能力。实验表明,YOLOv11-CREP与原始的YOLOv11n模型相比,平均精度(mean average precision,mAP)在IoU阈值0.5时提升4.6个百分点,达到95.3%;在IoU阈值范围0.5:0.95时提升9.0个百分点,达到70.2%。所提模型兼顾高检测性能和实时性要求,有效提升了复杂场景下的行人检测性能,为行人检测任务建模提供了参考。