硬核搜打撤战术游戏中怎么构建/优化AI体系?

 人参与 | 时间:2025-05-25 22:00:24
《暗区包围》最近山沟别墅里的多斯小队,如同变聪明晰?这不是咱们的幻觉,其实是魔方的AI团队再次出手,优化了多斯和小弟们的战役战略,测验为咱们带来一批愈加聪明的“机哥”。今日的魔方研讨邀请到担任暗区包围多斯小队AI优化的技能大佬,来详细说说这次优化背面的故事。

Q:此次优化的的布景是什么?

此次优化的布景首要是为了处理旧版本中多斯战役形式过于单一的问题。

在旧版本中,玩家很简略破解多斯小队的战役战略,找到处理领袖的最优解,能够低成本、低风险地刷领袖配备。

旧版本的多斯小队。

这种单一的战役形式不只使得玩家的体会变得单调,还导致或许呈现多斯带着小弟被排排击倒的诙谐局势,从游戏体现上也显得很糟糕。
为了改进这个情况,咱们启动了这次优化,并且希望经过此次优化,为未来完成在更杂乱的在线练习打好根底。经过与玩家的战役互动,“机哥”们能够不断学习并变强,然后越来越“聪明”,为玩家带来更具挑战性和趣味性的游戏体会。

Q:这次多斯小队变聪明的当地在哪里?

用咱们比较好了解的说法,这次优化中,咱们把“机哥”们分成了老迈和小弟,老迈AI指挥,小弟AI听命令举动,得以完成比以往更亲近且更杂乱的战术协作。

详细打开来说,咱们采用了【强化学习】+【行为树】混合操控的练习结构,结合近端战略优化算法(PPO),来求解FPS游戏中AI协同合作的难题。


经过强化学习练习出来的上层指挥AI(比方多斯),操控了多个行为树练习的单体AI(小弟们),小弟们听从指挥后进行移动、开战、战役等详细行为,然后完成愈加杂乱的小队协作战略。


Q:咱们先来聊一聊强化学习+行为树的混合练习?


咱们刚提到,这次优化中咱们是经过一个智能体操控多个单体AI来完成战役战略的不同体现。

混合方法如下:

● 强化学习操控男团移动逻辑,行为树操控战役逻辑逻辑。

● 行为树担任简略的战役开战。


● 强化学习专心于探究男团“排兵布阵”战术合作才能。

运转过程如下图:


● 单体行为树AI会以固定频率(0.5s),向指挥AI恳求移动方针点。

● 指挥AI会归纳一切单体行为树AI的状况信息,下发每个单体AI的移动方针点。


● 单体行为树AI移动至方针导航点(除非本身被更高档移动逻辑打断)。


● 重复上述过程。

Q:刚提到的【预构建导航数据】又是什么呢?


《暗区包围》是一款主打战术博弈的硬核搜打撤手游,地图场景敞开多样,玩法也各有不同,相似实在国际的三维场景里有很多静态、动态与环境感知相关的物体,并且三维地势也十分杂乱。

在这种立体杂乱多变的游戏环境中,想要练习出咱们希望的指挥AI体系,对AI的多单元之间的协作合作、战役和移动才能都提出了很高的要求。

预构建导航数据,简略来说,咱们先把游戏地图上的可行走区域符号出来,再在这些可行走区域构建导航信息。这些信息是固定的,练习时根据需要随时调用即可,指挥官AI能够经过这些信息做判别,小弟(行为树AI)则能够直接经过这些信息举动。


Q:那这份数据又有什么用呢?

有了这些数据,上层指挥AI就能够以此构建多方针的移动计划了。

在海边别墅中,假定每个单体AI从本身八方向中随机挑选一个方向移动,考虑到有十个行为树AI,移动的成果能够有8^10‌品种,这种探究量级会耗费很多时刻和核算资源。


更糟糕的是,上层指挥AI很难了解每个不同移动成果的微观意义,导致AI们很难学会协同合作战略,简略各安闲地图中胡乱行走,呈现各玩各的现象。

因而,咱们引进预先构建的数据,再引进人类先验常识来下降探究难度,使得单体AI之间合作愈加简略,然后较为简略发生战术包围、绕后行为,能够极大程度发挥出强化学习练习指挥AI的调度作用。

咱们信任,跟着AI们的强化练习和玩家反应的继续堆集,多斯小队将变得愈加“聪明”,也能更好地应对玩家层出不穷的战术和战略。一起,这种根据强化学习和玩家互动的练习形式,或许有一天也将应用在魔方其他游戏的开发中。


来历:腾讯魔方工作室。




内容来源:https://bachduy.com/app-1/6 thần tài,http://chatbotjud-teste.saude.mg.gov.br/app-1/baleiabet

顶: 198踩: 1