论文部分内容阅读
未来是一个无比美好的词汇,它往往寓意机遇、潜力、希望……除了考古学家,似乎科学家、政治家、科幻文学家、教育家等都喜欢谈论未来。如今,随着人工智能(AI)的发展,人类社会正在走向人机协同、跨界融合、万物智能的“智慧时代”,军事领域则是社会的缩影与先导。
作为现代战争中崛起的新贵,无人战车、智能炸弹、空间机器人等一系列智能化作战武器在人工智能的高速发展下,迅速从实验室走向陆海空天广域战场。由此引发的好奇和担忧也接踵而至:人工智能会否迅速颠覆未来战争?会否完全取代人类作战?在AI面前,谁将真正掌控未来的战争?
AI领域的突破让人惊叹。很多人或许会对2016年6月的一次模拟对抗记忆犹新——由美国研究人员开发的阿尔法系统在模拟空战中对抗两名退役的战斗机飞行员,AI系统大获全胜。
在这次模拟空战中,由两架攻击喷气战斗机组成的蓝队具有更强的武器系统,但是阿尔法系统的红队通过躲避动作击败了敌机。比赛结束后,飞行员认为这款程序非常善于掌控态势,反应也灵敏得出奇,似乎能预测人类的意图,并在人类改变飞行动作或发射导弹时立即回应。军事专家表示,这个结果具有深远的意义,“就像一个象棋大师输给了电脑”。
战斗机飞行员与阿尔法系统之间的“人机大战”,可以说代表了人工智能在基于神经网络的深度学习、高性能计算和大数据技术等领域的最新成就。但若从现有AI技术发展状况来看,有关人工智能会迅速颠覆未来战争的担忧似乎为时尚早。
一是战场环境难适应问题。当前的人工智能之所以备受关注,其背后的主要动因是,有着“人工智能教父”之称的杰弗里·辛顿2006年提出的深度学习方法大大提高了人工智能在图像识别、语音识别等方面的效率。然而,该方法在面对具有可微分、强监督学习、封闭静态系统等任务时有效,在面对不可微分、弱监督学习、开放动态环境下的任务时效果较差,计算收敛性不好。
二是作战主体难进化问题。就人工智能行为主义进路中的增强学习而言,其最主要的缺点是把人的行为过程看得过于简单,实验中往往只是测量简单的奖惩反馈过程,有些结论并不能迁移到实际战场情景中,所以往往外部效度不高。此外,行为主义刻意研究可以观察的行为,而将意识与行为对立起来,限制了战争中人工智能主体的进化。
三是战术行为难解释问题。人工智能符号主义基于逻辑推理的智能模拟方法模拟人的智能行为,属于现代人工智能进路。它主张用逻辑方法来构建人工智能的统一理论体系,但却遇到了“常识”问题的障碍,以及不确知事物的知识表示和问题求解等难题,因此,如将其运用到未来战争实践中,将面临战术行为难解释等诸多问题。
在科幻电影中,我们常见到各种“超级战士”的身影:《机械战警》中人类头脑和机械身体完美结合、身上配备各式武器、能应付各种暴力活动的机械警察;《再造战士》中通过基因设计工程制造出来的拥有超绝战斗技巧和力量的超级战士;《阿凡达》中用人类的基因与当地纳美人基因相结合,由人类的意识进驻其中而得以在这个星球上自由活动的“化身”,等等。
如今,电影中的科幻场景正一步步走入现实,正如美国科学家皮埃罗·斯加鲁菲等人在《人类2.0:在硅谷探索科技未来》中指出的:“今天,人类延伸自我最让人印象深刻的方式,就是发展出了改变生命本身的技术,未来将是有机世界和合成世界的联姻,正如未来一定是人类和机器人的联姻。”
尽管如此,目前的人工智能还处在“幼年期”,它只能在规则确定、信息完备的封闭系统中有可能比人类做得更好,而在其赖以工作的可编程的特定问题和特定背景之外,必须依靠人类的敏锐洞察力、道德分辨力和随机应变力等才能解决问题。
因此,凭借人工神经网络、大数据、云计算等分析技术,人工智能虽具有强大的信息感知处理能力,但军事对抗系统技术复杂性的提高必然带来新的系统不确定性,系统复杂性与系统不确定性相生相克的客观规律,仍然是人类认识人工智能应当遵循的原理,因此人工智能的出现仍然难以彻底消除战场的“不确定性”迷雾。
对此,美国空军有人机和无人机高级飞行员大卫·约翰在《无人系统能否引发新军事变革》中写道:“单靠技术从来不会赢得战争。成吉思汗的马镫、荷南·科尔蒂斯的火枪以及美国的原子弹,都为其带来了决定性优势,但它们之所以能起到关键作用,只是因为适应了当时的具体条件和战略……无人系统不会从根本上改变战争的本质或性质。尝试使用无人系统代替人类智慧的决策者、战略家或操作员,对这样的结论将大失所望。”
美国耶鲁大学生物伦理学跨学科中心的温德尔·瓦拉赫在《科技失控》中说,人类孕育的科技决定着未来。科技既可以是人类温顺的仆人,也可以是人类危险的主人,既可以是人类贴心的朋友,也可以是人类凶狠的敌人。回顾科技发展史会发现,在漫长的进化过程中,关键是人类学会了制造和使用工具。否则,面对“反复无常”的大自然,手无寸铁的人类是何其脆弱的一个物种。
人工智能技术对撬动军事变革的作用不容小觑,但与此同时,战争中的技术、伦理、道德等一系列风险与挑战也逐步显现。不少科幻电影已对人工智能的威胁展开讨论:《机械公敌》中原本以保护人类为使命的机器人出现集体失序,对人类展开了残暴攻击;《西部世界》中机器人的内部系统不断进化,最终反叛并伤害人类。
由于目前AI技术的发展局限,人工智能的指挥系统容易在执行程序复杂的情景中出现失序。比如2007年10月,美军第三机步师一部带着3台“利剑”机器人进攻一个反美武装盘踞的据点时,由于没有及时更换软件,其中一台“利剑”竟把枪口瞄准美军操作者,而且无论操作员如何发出“行动取消”的指令,失控的“利剑”就是停不下来,直至用火箭筒把它炸翻才化险为夷。
可以预见,在人机协同作战方式中,过度依赖人工智能无疑增大了指挥系统失控的风险,这就如同把枪交给了机器人,当机器人不听从人类指挥时,枪口对准的对象将可能是战争中的任何一方。
因此,应坚持人机结合、以人为主的原则,保证人类对军事机器人的控制权,制定应对意外事件的应急机制,建立防范机器人失控的后台程序。此外,应当加强人工智能的技术预測与评估,在充分试验与分析的基础上逐步推动人工智能技术的军事应用。
(摘自《环球》2020年第22期。贾珍珍为国防科技大学副教授,石海明为国防大学教授)
作为现代战争中崛起的新贵,无人战车、智能炸弹、空间机器人等一系列智能化作战武器在人工智能的高速发展下,迅速从实验室走向陆海空天广域战场。由此引发的好奇和担忧也接踵而至:人工智能会否迅速颠覆未来战争?会否完全取代人类作战?在AI面前,谁将真正掌控未来的战争?
AI颠覆未来战争担忧过早
AI领域的突破让人惊叹。很多人或许会对2016年6月的一次模拟对抗记忆犹新——由美国研究人员开发的阿尔法系统在模拟空战中对抗两名退役的战斗机飞行员,AI系统大获全胜。
在这次模拟空战中,由两架攻击喷气战斗机组成的蓝队具有更强的武器系统,但是阿尔法系统的红队通过躲避动作击败了敌机。比赛结束后,飞行员认为这款程序非常善于掌控态势,反应也灵敏得出奇,似乎能预测人类的意图,并在人类改变飞行动作或发射导弹时立即回应。军事专家表示,这个结果具有深远的意义,“就像一个象棋大师输给了电脑”。
战斗机飞行员与阿尔法系统之间的“人机大战”,可以说代表了人工智能在基于神经网络的深度学习、高性能计算和大数据技术等领域的最新成就。但若从现有AI技术发展状况来看,有关人工智能会迅速颠覆未来战争的担忧似乎为时尚早。
一是战场环境难适应问题。当前的人工智能之所以备受关注,其背后的主要动因是,有着“人工智能教父”之称的杰弗里·辛顿2006年提出的深度学习方法大大提高了人工智能在图像识别、语音识别等方面的效率。然而,该方法在面对具有可微分、强监督学习、封闭静态系统等任务时有效,在面对不可微分、弱监督学习、开放动态环境下的任务时效果较差,计算收敛性不好。
二是作战主体难进化问题。就人工智能行为主义进路中的增强学习而言,其最主要的缺点是把人的行为过程看得过于简单,实验中往往只是测量简单的奖惩反馈过程,有些结论并不能迁移到实际战场情景中,所以往往外部效度不高。此外,行为主义刻意研究可以观察的行为,而将意识与行为对立起来,限制了战争中人工智能主体的进化。
三是战术行为难解释问题。人工智能符号主义基于逻辑推理的智能模拟方法模拟人的智能行为,属于现代人工智能进路。它主张用逻辑方法来构建人工智能的统一理论体系,但却遇到了“常识”问题的障碍,以及不确知事物的知识表示和问题求解等难题,因此,如将其运用到未来战争实践中,将面临战术行为难解释等诸多问题。
战场“不确定性”迷雾难消
在科幻电影中,我们常见到各种“超级战士”的身影:《机械战警》中人类头脑和机械身体完美结合、身上配备各式武器、能应付各种暴力活动的机械警察;《再造战士》中通过基因设计工程制造出来的拥有超绝战斗技巧和力量的超级战士;《阿凡达》中用人类的基因与当地纳美人基因相结合,由人类的意识进驻其中而得以在这个星球上自由活动的“化身”,等等。
如今,电影中的科幻场景正一步步走入现实,正如美国科学家皮埃罗·斯加鲁菲等人在《人类2.0:在硅谷探索科技未来》中指出的:“今天,人类延伸自我最让人印象深刻的方式,就是发展出了改变生命本身的技术,未来将是有机世界和合成世界的联姻,正如未来一定是人类和机器人的联姻。”
尽管如此,目前的人工智能还处在“幼年期”,它只能在规则确定、信息完备的封闭系统中有可能比人类做得更好,而在其赖以工作的可编程的特定问题和特定背景之外,必须依靠人类的敏锐洞察力、道德分辨力和随机应变力等才能解决问题。
因此,凭借人工神经网络、大数据、云计算等分析技术,人工智能虽具有强大的信息感知处理能力,但军事对抗系统技术复杂性的提高必然带来新的系统不确定性,系统复杂性与系统不确定性相生相克的客观规律,仍然是人类认识人工智能应当遵循的原理,因此人工智能的出现仍然难以彻底消除战场的“不确定性”迷雾。
对此,美国空军有人机和无人机高级飞行员大卫·约翰在《无人系统能否引发新军事变革》中写道:“单靠技术从来不会赢得战争。成吉思汗的马镫、荷南·科尔蒂斯的火枪以及美国的原子弹,都为其带来了决定性优势,但它们之所以能起到关键作用,只是因为适应了当时的具体条件和战略……无人系统不会从根本上改变战争的本质或性质。尝试使用无人系统代替人类智慧的决策者、战略家或操作员,对这样的结论将大失所望。”
人机结合仍要以人为主
美国耶鲁大学生物伦理学跨学科中心的温德尔·瓦拉赫在《科技失控》中说,人类孕育的科技决定着未来。科技既可以是人类温顺的仆人,也可以是人类危险的主人,既可以是人类贴心的朋友,也可以是人类凶狠的敌人。回顾科技发展史会发现,在漫长的进化过程中,关键是人类学会了制造和使用工具。否则,面对“反复无常”的大自然,手无寸铁的人类是何其脆弱的一个物种。
人工智能技术对撬动军事变革的作用不容小觑,但与此同时,战争中的技术、伦理、道德等一系列风险与挑战也逐步显现。不少科幻电影已对人工智能的威胁展开讨论:《机械公敌》中原本以保护人类为使命的机器人出现集体失序,对人类展开了残暴攻击;《西部世界》中机器人的内部系统不断进化,最终反叛并伤害人类。
由于目前AI技术的发展局限,人工智能的指挥系统容易在执行程序复杂的情景中出现失序。比如2007年10月,美军第三机步师一部带着3台“利剑”机器人进攻一个反美武装盘踞的据点时,由于没有及时更换软件,其中一台“利剑”竟把枪口瞄准美军操作者,而且无论操作员如何发出“行动取消”的指令,失控的“利剑”就是停不下来,直至用火箭筒把它炸翻才化险为夷。
可以预见,在人机协同作战方式中,过度依赖人工智能无疑增大了指挥系统失控的风险,这就如同把枪交给了机器人,当机器人不听从人类指挥时,枪口对准的对象将可能是战争中的任何一方。
因此,应坚持人机结合、以人为主的原则,保证人类对军事机器人的控制权,制定应对意外事件的应急机制,建立防范机器人失控的后台程序。此外,应当加强人工智能的技术预測与评估,在充分试验与分析的基础上逐步推动人工智能技术的军事应用。
(摘自《环球》2020年第22期。贾珍珍为国防科技大学副教授,石海明为国防大学教授)