图 :模型框架:本图展示了我们提出的模型框架,它由三个主要部分组成。首先,**模拟环境(Simulation Environment)利用游戏设计团队提供的输入,进行大量模拟以生成包含单位对决及其结果的数据库。其次,这些数据经过预处理后,随后用于训练两个预测模型:战斗结果模型(Battle Outcome Model)和单位统计模型(Unit Statistics Model)。最后,训练好的模型既被部署在游戏环境中,也被集成到模型性能仪表板(Model Performance Dashboard)**中,以便进行持续评估。
ca的《全面战争》是一个结合了两种主要游戏机制的系列作品:回合制大战略和实时战术战斗。两者相互增强,构成了一个层次丰富、复杂的战争与帝国管理模拟系统。我们认为,《全面战争》因其复杂且多层级的战略与战术玩法,为开发和测试机器学习人工智能提供了一个极其丰富的环境。
在《全面战争》的战斗中,一个“单位”由多名士兵组成,并拥有总剩余生命值。这两个变量是相互独立的。例如,一个大炮单位可能只有三名操作大炮的士兵,而一个弓箭手单位则可能拥有 20 名个体弓箭手。在每一款《全面战争》的游戏中,代表单位能力的特征(数值/属性)都会发生变化。
本文工作的主要贡献包括:
提出了一种机器学习解决方案,用于学习《全面战争》中 1 vs 1 对决的结果。我们证明了该模型在不同类型的单位以及不同的“遭遇类型”(包括步兵 vs 步兵、远程 vs 远程、步兵 vs 远程)中均具有极高的准确性。
我们展示了一个可以自动化的框架,适用于同类游戏或 ca 未来的《全面战争》作品。
相关工作
预测战斗结果的方法主要分为**启发式规则和机器学习方法。早期的战争预测研究应用了启发式和数学模型,例如用于损耗动力学的兰彻斯特方程

以及杜普伊的部队效能模型。在像《全面战争》这样的策略游戏中,手工设计的启发式规则在历史上一直能够可靠地解释地形或特殊能力等复杂因素。然而,这些方法通常过度依赖专家的领域知识,且难以推广到多种多样的战斗场景中。
最近,机器学习被应用于减轻对手工规则的需求。在《星际争霸》和《帝国时代 IV》等策略游戏中,监督学习已被用于根据单位组成、阵型和衍生出的游戏状态特征来预测结果。开源的《星际争霸 II》学习环境进一步推动了在复杂战略设置下对机器学习方法的基准测试,从而深入了解了状态和特征表达对结果预测的有效性。在《帝国时代》中,在合成战斗上训练的决策树模型证明了基于模拟的数据生成对结果预测的价值。
除了大规模战斗,机器学习也被用于局部战斗预测,例如根据距离、健康值和掩体评估特工的威胁水平。同样,针对多人在线游戏的研究表明,仅凭团队构成就能以合理的准确度预测结果,而结合动态特征则能提高进行中比赛的预测性能。这些研究强调了特征选择的重要性,并暗示了结合机器学习模型与领域知识的混合方法的价值。
虽然之前的工作证明了启发式和基于机器学习预测的可行性,但大多数方法要么侧重于玩家对玩家的战斗模拟,要么侧重于像《星际争霸 II》这样有成熟基准测试的策略游戏。相比之下,我们的工作探索了《全面战争》这一独特的电子游戏,并检查了单位特征和战斗语境,以进行单位对单位级别的预测。