图12 三代机对战四代机红蓝决策输出对比
Fig.12 Comparison between red and blue decisions in 3rd generation vs 4th generation counterwork
3.2.2 对抗自优化能力
在神经网络完成第1轮1 291场对抗优化后,对模糊推理模型的交换比提高到1∶2.73。在完成第2轮765场对抗优化后,对模糊推理模型的交换比提高到1∶3.6。交换比的提高显示了自对抗对神经网络模型的优化效果。
3.2.3 智能决策综合能力
构建复杂对抗场景,对解决方案中的态势计算和决策模型进行更全面的能力验证。这里以双机编队和单机的对抗作为仿真实验场景。
图13中红蓝双方均为三代机平台,传感器和武器配备相同。红方为双机编队,1号机前突,2号 机掩护。红方1号机和蓝方飞机相互攻击。在导弹逼近到危险距离后,双方开始机动规避。此时红方2号机加速前突进行攻击占位。红方1号 机和蓝方飞机各自成功规避导弹后开始掉头。此时红方1号机处于掩护位置,红方2号机处于前突位置,红方编队完成了角色轮转。蓝方飞机掉头后遭到红方2号机导弹攻击,不得不再次机动规避。此时红方2号机继续加速前突。在蓝方规避掉导弹后,红方2号机在超音速状态下再次发射导弹。由于距离近,导弹初速高,蓝方未能规避被击落。此时红方1号机也已到达攻击发起位置,准备下一轮攻击。
在这个对抗过程中,态势计算模块进行了正确合理的角色和任务分配,战术决策模型在正确合理的时机选择了导弹发射、置尾规避和回转进攻等战术动作,显示了智能虚拟陪练在复杂对抗场景下具备较好的战术决策能力。
图13 红方双机编队协同对抗蓝方单机
Fig.13 Counterwork between two collaborative red flights and a single blue flight
该解决方案验证了前面提出的智能虚拟陪练的功能逻辑和开发维护流程的合理性,证明了其中主要关键技术的可行性。此验证方案中使用的规则库和战术库内容较少,神经网络规模较小,未使用并行计算,未实现规则的自动识别。模型装机后得到人机对抗数据,其中智能虚拟陪练的决策记录可直接供神经网络模型回放强化学习,人的决策过程数据仍需要进行人工识别。
智能虚拟陪练的核心,也即空战战术决策和控制,是一个在迅速发展的研究热点,各类模型算法,只要符合前面提出的基本功能要求,都可以通过智能虚拟陪练进行验证和迭代。 4 从智能虚拟陪练到自主空战