摘要:针对蛇形机器人执行路径规划任务时,面对复杂环境传统强化学习算法出现的训练速度慢、容易陷入死区导致收敛速度慢等问题,提出了一种改进的深度确定性策略梯度(deep deterministic policy gradient, DDPG)算法。首先,在策略-价值(actor-critic)网络中引入了多层长短期记忆(long short-term memory, LSTM)神经网络模型,使其控制经验池中信息的记忆和遗忘程度;其次,通过最优化特征参数将CPG网络融入强化学习模型,并设计新型网络状态空间和奖励函数;最后,将本文所提改进算法与传统算法分别部署在Webots环境中进行仿真实验。结果表明,相比于传统算法,所提改进算法整体训练时间平均降低了15%,到达目标点迭代次数平均降低了22%,减少了行驶过程中陷入死区的次数,收敛速度也有明显的提升。该算法能有效地引导蛇形机器人躲避障碍物,从而为其在复杂环境下执行路径规划任务提供了新的思路。