本项目对干扰机-雷达一对多场景下的干扰突防问题进行了强化学习建模,并采用DQN与DDPG两种算法,对雷达干扰资源分配问题进行了仿真,并对仿真结果进行了分析。
基于强化学习的雷达干扰资源分配
|—DQN // 使用DQN算法实现干扰资源分配
|——RadarEnv.py //针对DQN进行动作离散化的雷达-干扰机交互环境
|——rl_utils.py // 强化学习常用函数
|——run_DQN.ipynb //基于DQN的突防仿真实现
|—DDPG // 使用DDPG算法实现干扰资源分配
|——RadarEnv_ddpg.py //采用混合动作空间的雷达-干扰机交互环境
|——rl_utils.py // 强化学习常用函数
|——tryDDPG.ipynb //基于DDPG的突防仿真实现
|—Patent //专利相关的仿真
|——RadarEnv_ddpg_n.py //采用混合动作空间的多雷达-干扰机交互环境
|——rl_utils.py // 强化学习常用函数
|——tryDDPG_n.ipynb //基于DDPG的多雷达-单干扰机突防仿真实现
|—requirements.txt // 依赖包
|—README.md // 项目介绍
Python 3.8 + Pytorch 2.1 环境使用的依赖包详见requirements.txt
使用Jupyter Notebook在配置好的虚拟环境中运行run_DQN.ipynb与tryDDPG.ipynb文件,运行结果将以内嵌形式展示。
刘骥远[[email protected]]