浅谈AlphaStar对作战指挥系统的启发

随着信息技术、纳米技术、生物技术、新材料技术、新能源技术等战略前沿技术领域的发展应用,必将继续推动人工智能相关技术日益走向成熟,在军事领域扮演越来越重要的角色。人工智能技术与装备不断取得突破。主要国家纷纷将人工智能提升到国家战略高度。

一、星际争霸简介及AI历史

《星际争霸》(英语:StarCraft)是暴雪娱乐制作发行的一款即时战略游戏。游戏描述了26世纪初期,位于银河系中心的三个种族在克普鲁星际空间中争夺霸权的故事。三个种族分别是:地球人的后裔人族(Terran)、一种进化迅速的生物群体虫族(Zerg),以及一支高度文明并具有心灵力量的远古种族星灵(Protoss)。

《星际争霸》提供了一个游戏战场,用以玩家之间进行对抗。这也是该游戏以及所有即时战略游戏的核心内容。在这个游戏战场中,玩家可以操纵任何一个种族,在特定的地图上采集资源,生产兵力,并摧毁对手的所有建筑取得胜利。游戏同时为玩家提供了多人对战模式。

AlphaStar并不是第一个挑战《星际争霸》的程序。AIIDE 星际争霸AI竞赛由加州大学圣克鲁斯分校在2010年首次举办,从此每年举办一场。

这个比赛中大部分的AI都是以固定策略和手工规则为例,以2018年为例,排名第一的三星SAIDE,采用纯手写规则的人族机械化打法:开局先进行防守,中期开始寻找最佳时机进行Rush,用强力的一波带走对手;排名第二的是Facebook AI Research,其采用的方式是在比赛前根据与对手的交战历史训练出10几种模型,在比赛时采用LSTM模型判定当前局势下最优的策略,来回切换到对应的模型,当然,该方案也使用了大量的手工规则,例如农民分配、资源使用比例、队列生成、战斗部队走位等。

二、关于AlphaStar

2019年10月底,DeepMind在《自然》杂志发布最新研究:《Grandmaster level in StarCraft II using multi-agent reinforcement learning》,并放出大量AlphaStar和顶级人类选手的《星际争霸II》对战replay。相关数据显示,AlphaStar在战网上(欧服天梯)的排名已超越99.8%的活跃玩家,在不到 4 个月的时间里,它使用每个种族进行了 30 场天梯比赛,三个种族的水平都达到了宗师级别:星灵 6275 分(胜率 83%),人族 6048 分(胜率 60%),虫族 5835 分(胜率 60%)。
论文链接:
https://www.nature.com/articles/s41586-019-1724-z

三、从AlphaGo到AlphaStar

在此之前,DeepMind 开发的AlphaGo已经在围棋中击败了人类,但《星际争霸II》远比围棋复杂。

 ● 计算复杂度

围棋比赛中,棋子一共只有 361 个落点,而在《星际争霸2》中,每个单位可以选择 300 多项基本行动。结合屏幕的每个可操作像素,其复杂度可能达到10的26次方。

 ● 信息完备度

围棋比赛中,AI可以看到人类对手的每一步行动和全部的棋盘,对于AI来说所有信息都是完备。而在《星际争霸II》中,由于“战争迷雾”的存在,AI接收的信息是不完备的,如果要获取更多信息需要依靠单位移动或者单位探测功能。不完备信息推理是限制AI智能化的一个很大因素。

策略博弈度

围棋比赛中,在某一个时刻,可能会存在“最优解”的策略。而在《星际争霸II》中,策略的优势是相对的,是互相克制的,可能多轮更新后的策略会被对手最初的策略所克制。

四、AlphaStar人机对战限制

由于AlphaStar是基于《星际争霸II》接口开发的,可以借助API达到远超人类的能力。为了尽可能公平地进行比赛,DeepMindAlphaStar进行了以下限制。

● 战争迷雾

《星际争霸》内置的AI Bot,关闭了战争迷雾,意味着你的一举一动都在电脑的实时监控中。

● APM(Action Per Minute,每分钟操作次数)

早期版本的AlphaStar被严重质疑的一点是其APM疯狂地达到1500左右,要知道世界顶级选手也只有500上下。(鄙人年轻的时候大概在100左右……)

最后版本以一个人类选手为参考做了限制:最多在 5 秒内完成 22 个不重复指令,操作延迟限定在 110 毫秒左右。

信息采集

在有视野的情况下,API可以快速获取视野内的所有环境信息。这点对人类来说是极不公平,毕竟人类需要从感知转认知。所以AlphaStar号称也做了类似操作(强烈表示怀疑…..)。

五、AlphaStar人类职业选手优劣势对比

记忆及计算能力

AI可以精准地记得过往视野内的所有建筑和单位信息,并进行精确计算,这点是人类远达不到。

微操

虽然AlphaStar限制了APM,但实际上并不妨碍其操作上的优势,人类选手太多无效操作和不精准操作(手抖),例如某一局PvT比赛中,AlphaStar使用6架凤凰战机瞬间同时举起对方单位......

多线操作

在后期的大规模团战(各种技能)、空投骚扰、开新矿并行的情况下,AI可以随意碾压人类。

战术创意

AlphaStar目前是基于有监督学习(大量人类选手比赛)的方式,基本上没有战术创意的概念。

全局战略

AlphaStar在态势对应上,大多是以“经验”或“经验组合”驱动,审时度势能力较弱。例如对方空投,是分兵还是就近造单位,不一定是最优选择。

总体上看,AlphaStar和人类各有优势,目前可以通过其计算能力和无限学习人类选手战术来打败大部分人类。

六、AlphaStar核心技术

AlphaStar架构图

AlphaStar的技术原理在几篇论文和youtube的频道上已经有不少解析,这里我们只讨论一些可以在军事作战指挥中参考的关键技术。

● 先验知识

论文中没有对AlphaStar先验知识体系进行深入描述,网上有些文章说AlphaStar是零先验的,这点比较扯淡。
先验知识包括建筑信息、建筑依赖关系、单位信息、兵种相克信息等。
例如,星灵中的折跃门,要从零先验去学习并且达到比较好的效果,难度是相当大的,而且也浪费TPU。

深度LSTM核

AlphaStar使用LSTM网络捕捉长程信息,跟踪所有之前发生的动作,以及过去访问的所有视图的位置。每个智能体使用一个深度 LSTM,每个 LSTM 有 3 个层和 384 个单元。AlphaStar 在游戏中每做出一个动作,该记忆就会更新一次。平均每个游戏会有 1000 个动作。网络大约有 7000 万个参数

● 神经网络

通过使用关系性深度强化学习,可以通过结构化感知和关系推理提高常规方法的效率、泛化能力和可解释性。在AlphaStar用于抽取非结构化信息以及提高策略模型可解释性。可解释性是军事指挥决策系统的重要组成部分。

模仿学习

通过对人类选手的大量学习,制定初始化战略,寻找制胜的关键点。数据表明,通过这项学习,一开局就赢了84%的人类。
AlphaStar在防住对手Tower Rush后,直接拍下三矿扩大经济优势,最后获胜。

联盟训练(群体强化学习)

《星际争霸II》的不完备博弈特点导致策略空间非常巨大,几乎不可能像棋类那样通过树搜索的方式确定一种或几种胜率最大的策略。一种战术策略总是会被别一种策略克制,关键是如何找到最接近纳什均衡的智能体。AlphaStar实现了一种联盟训练(league training)的方法,将初始化后每一代训练的智能体都放到这个联盟中。新一代的智能体需要和整个联盟中的其它智能体相互对抗,通过强化学习训练新智能体的网络权重。这样智能体在训练过程中会持续不断地探索策略空间中各种可能的作战策略,同时也不会将过去已经学到的策略遗忘掉。

另外值得一提的是,不是所有的AlphaStar智能体都是为了胜利。有些智能体是用来寻找策略的弱点来督促改进。这点非常值得在军事指挥中的兵棋推演中借鉴。

AlphaStar在对手旁边直接开分矿,最危险的地方就是最安全的地方……

Off-policy强化学习

AlphaStar使用一个新的off-policy强化学习算法,里面包含了经验重播(ExperienceReplay),自我模仿学习(Self-ImitationLearning)以及策略蒸馏(PolicyDistillation)等等机制,用于保证训练的稳定性和有效性。


七、国防领域AI应用

DARPA的ACE(空战演进)项目

随着信息技术、纳米技术、生物技术、新材料技术、新能源技术等战略前沿技术领域的发展应用,必将继续推动人工智能相关技术日益走向成熟,在军事领域扮演越来越重要的角色。人工智能技术与装备不断取得突破。主要国家纷纷将人工智能提升到国家战略高度。

人工智能在军事领域的主要应用体现在以下几个方向:

◆ 智能化感知与信息处理

◆ 智能化指挥控制辅助决策

◆ 无人化军用平台

◆ 仿生机器人

◆ 扩展人的体能技能和智能

DARPA(美国国防部高级研究计划局)于2010年启动“心灵之眼”(Mind’s Eye)项目,寻求使用人工智能进行视频分析,开发一种机器能力——视觉智能,提供观察区域中与活动相关信息,能够提前对时间敏感的重大潜在威胁进行分析。

DARPA于2011年设立“洞悉”(Insight)项目,通过分析和综合各类传感器和其他来源的信息,集成烟囱式的信息形成统一的战场图像,发现威胁和无规律的战争行动。该项目用于增强分析人员实时从所有可用来源收集信息、从中学习以及与最需要的人分享重要信息的能力。

2017年4月,美国五角大楼提出了Maven项目。美国军方在全球各地投放了大量无人机,这些无人机每日每时都传回海量的视频资料,军方分析师早已不堪重负。Maven的首要任务就是,利用人工智能技术,来识别无人机镜头中的车辆和其他物体,从而减轻分析人员的负担。

2019年5月,DARPA提出“空战演进”(ACE)项目,将开展人工智能驱动的空中格斗竞赛,该局把其视为研发空对空自动作战软件的第一步。由人工智能控制的战斗机作战反应更快,可让飞行员有更多的时间管理更大的空中战场。最终,ACE项目将发展出可靠和可信的人工智能空中格斗软件,接管空对空作战任务。

八、星际争霸II和军事作战指挥的比较

九、第五代军事作战指挥系统的构建思路

基于以上信息综合,一个智能的作战指挥系统至少要包括以下要素。

先验知识图谱(装备体系,战术战法,指挥艺术) 

● 情报感知网络(接收各种输入) 

● 多智能体策略网络(例如无人机集群的协同AI) 

● 态势评估价值网络(评估当前局势) 

● 基于神经网络的推理解释引擎 

● 基于深度长短记忆的指控决策网络 

● 基于群体强化学习的兵棋推演

DataExa渊亭科技
DataExa渊亭科技

DataExa渊亭科技(www.dataexa.com)专注认知智能全栈技术研发与产品化落地,深耕金融科技、监管科技、情报科技三大领域,为客户提供包括知识图谱平台、人工智能中台等产品与解决方案。

http://www.dataexa.com/
产业强化学习图神经网络智能体感知网络知识图谱军事作战AlphaStar态势感知人工智能星际争霸
相关数据
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

纳什均衡技术

纳什平衡,又称为非合作赛局博弈,是在非合作博弈状况下的一个概念解,在博弈论中有重要地位,以约翰·纳什命名。 如果某情况下无一参与者可以通过独自行动而增加收益,则此策略组合被称为纳什均衡点。

深度强化学习技术

强化学习(Reinforcement Learning)是主体(agent)通过与周围环境的交互来进行学习。强化学习主体(RL agent)每采取一次动作(action)就会得到一个相应的数值奖励(numerical reward),这个奖励表示此次动作的好坏。通过与环境的交互,综合考虑过去的经验(exploitation)和未知的探索(exploration),强化学习主体通过试错的方式(trial and error)学会如何采取下一步的动作,而无需人类显性地告诉它该采取哪个动作。强化学习主体的目标是学习通过执行一系列的动作来最大化累积的奖励(accumulated reward)。 一般来说,真实世界中的强化学习问题包括巨大的状态空间(state spaces)和动作空间(action spaces),传统的强化学习方法会受限于维数灾难(curse of dimensionality)。借助于深度学习中的神经网络,强化学习主体可以直接从原始输入数据(如游戏图像)中提取和学习特征知识,然后根据提取出的特征信息再利用传统的强化学习算法(如TD Learning,SARSA,Q-Learnin)学习控制策略(如游戏策略),而无需人工提取或启发式学习特征。这种结合了深度学习的强化学习方法称为深度强化学习。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

策略网络技术

在强化学习中,策略网络指一组相对稳定的关系,这些关系具有非等级和相互依赖的性质,将各个行为者(actor)联系起来。

先验知识技术

先验(apriori ;也译作 先天)在拉丁文中指“来自先前的东西”,或稍稍引申指“在经验之前”。近代西方传统中,认为先验指无需经验或先于经验获得的知识。先验知识不依赖于经验,比如,数学式子2+2=4;恒真命题“所有的单身汉一定没有结婚”;以及来自纯粹理性的推断“本体论证明”

无人机技术

无人机(Uncrewed vehicle、Unmanned vehicle、Drone)或称无人载具是一种无搭载人员的载具。通常使用遥控、导引或自动驾驶来控制。可在科学研究、军事、休闲娱乐用途上使用。

图神经网络技术

图网络即可以在社交网络或其它基于图形数据上运行的一般深度学习架构,它是一种基于图结构的广义神经网络。图网络一般是将底层图形作为计算图,并通过在整张图上传递、转换和聚合节点特征信息,从而学习神经网络基元以生成单节点嵌入向量。生成的节点嵌入向量可作为任何可微预测层的输入,并用于节点分类或预测节点之间的连接,完整的模型可以通过端到端的方式训练。

决策网络技术

决策网络(也称为影响图)是有限顺序决策问题的图形表示。决策网络在信念网络的基础上加入了决策变量和效用。决策网络扩展了单阶段决策网络以允许顺序决策。

模仿学习技术

模仿学习(Imitation Learning)背后的原理是是通过隐含地给学习器关于这个世界的先验信息,就能执行、学习人类行为。在模仿学习任务中,智能体(agent)为了学习到策略从而尽可能像人类专家那样执行一种行为,它会寻找一种最佳的方式来使用由该专家示范的训练集(输入-输出对)。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

三星机构

三星集团是韩国最大的跨国企业集团,同时也是上市企业全球500强,三星集团包括众多的国际下属企业,旗下子公司有:三星电子、三星物产、三星航空、三星人寿保险、雷诺三星汽车等,业务涉及电子、金融、机械、化学等众多领域。 三星集团成立于1938年,由李秉喆创办。三星集团是家族企业,李氏家族世袭,旗下各个三星产业均为家族产业,并由家族中的其他成员管理,集团领导人已传至 李氏第三代,李健熙为现任集团会长,其子李在镕任三星电子副会长。

AlphaStar技术

AlphaStar是2019年1月DeepMind推出的打星际争霸2的AI系统。在1月的首次亮相中,DeepMind播放的比赛视频显示AlphaStar击败了两名人类职业选手TOL与MaNa,引起了业内极大的关注。DeepMind 官方博客介绍,AlphaStar 的行为是由一种深度神经网络生成的,该网络从原数据界面(单位列表与它们的特性)接收输入数据,输出构成游戏内行为的指令序列。具体来说,该神经网络使用了一个 transformer 作为躯干,结合了一个深度 LSTM 核、一个带有 pointer 网络的自动回归策略 head 以及一个中心价值基线。

围棋技术

围棋是一种策略性棋类,使用格状棋盘及黑白二色棋子进行对弈。起源于中国,中国古时有“弈”、“碁”、“手谈”等多种称谓,属琴棋书画四艺之一。西方称之为“Go”,是源自日语“碁”的发音。

找到机构
推荐文章
暂无评论
暂无评论~