论文部分内容阅读
8月29日,在一名自杀式炸弹袭击者在喀布尔机场炸死13名美国军人和160名平民三天后,美国军事情报机构正在追踪据认为是另一起潜在破坏性袭击的目标:一辆正在驶向机场载有疑似炸弹“包裹”的汽车。军方的计划是用一架“死神”无人机通过视频锁定这辆车,并在附近没有平民时用“狱火”导弹将其摧毁。
这位战术指挥官很可能在内华达州的克里奇空军基地工作,他从位于佛罗里达州坦帕的美国中央司令部司令肯尼思·麦肯齐那里获得了准许。由于视频素材必须在世界各地的军事指挥官之间传阅,所以通常要延迟几秒钟。美国军方说,在这种情况下,这一延迟很可能让少数平民接近目标车辆。爆炸造成包括7名儿童在内的10名阿富汗平民死亡,引起了国际社会的强烈抗议。人们开始怀疑这辆车是否真的构成威胁。
在军事战略家们考虑如何防止“伊斯兰国”、“基地”组织——或者任何其他偏远地区——未来可能出现的其他威胁时,他们正在寻找一种更好的远程攻击方式。这一工作正朝着一个令人不安的方向前进:让机器来决定何时杀人或杀谁。
未来几年,“死神”无人机和其他美国无人机将配备先进的人工智能技术。一个令人震惊的场景出现了:军用无人机藏在阿富汗境内或附近的小型无人基地,准备起飞、扫描地盘,并立即分析它们拍摄的图像,识别和瞄准恐怖活动,确保目标远离平民,发射导弹、确认伤亡并返回基地——这一切都在几乎没有人干预的情况下进行。
当然,为“死神”无人机装备人工智能并不主要是出于人道主义考虑。人工智能武器的真正目的是获得压倒性的军事优势——在这方面,人工智能大有可为。在美国已从阿富汗撤军且不愿将军队投入到世界上其他冲突之际,使用无人操控武器远程发动攻击的能力正在成为美国军事战略的一个关键要素。通过赋予机器自行作出战场决策的能力,人工智能使这一战略变得可行。
目前正在制定的计划,不仅要把人工智能纳入“死神”无人机上,还将包括从战斗机到潜艇再到导弹的一整套武器库,这些武器将能够打击完全在其控制下的恐怖分子和敌军。
美国前国防部副部长、人工智能国家安全委员会联合主席罗伯特·沃克说:“人工智能已经出现在战争中。所有主要的全球军事竞争对手都在探索还能用它做什么,包括美国。”无论谁赢得这场竞赛,军事力量的轮廓——谁拥有它以及如何使用它——都将发生根本性变化。
20年来,装备了导弹的无人机一直是美国反恐和其他军事行动的主力,但它们造成了大量附带损失。相比之下,配备人工智能的无人机能够在几百分之一秒内发现、验证并瞄准目标,极大增强了军方远程打击能力。这一能力可以让美国在世界任何地方发动更多打击。提高无人机袭击的精确度和时效还可以减少美军对常规空袭的严重依赖。
人工智能支持的武器系统的不同之处在于其决策软件的性质和威力。人工智能软件运用“机器学习”算法,在接触到数千个成功完成任务的例子后,自己编写代码。生成的代码看上去与传统计算机编程完全不同,但它的能力远远超出传统计算机编程。人工智能武器原则上只需发射就可以监视或追踪几乎任何类型的目标,自行决定攻击时间和目标。它们可以追踪外观或行为不同的目标,转换目标,并在恶劣天气下在陌生地形进行导航,同时识别和躲避友军或平民。
人工智能的潜在军事优势巨大。动力系统集团首席技术官蒂姆·巴顿说:“人工智能可以降低执行任何任务的成本和风险,在接近对手的同时让战斗人员远离危险。它们能以光速接收和传递信息。人类无法做到这一点。”
2018年,五角大楼成立了联合人工智能中心,以推动和协调人工智能在全军的发展和融合。南丹麦大学战争研究中心副教授英维尔德·博德说:“我们正走在一条领导人不会从根本上质疑是否应该将人工智能军事化的道路上。”
真正改变游戏规则的将是无人机集群,它们可以用足够多的摄像头或其他类型的传感器覆盖一个区域,从而发现和分析几乎任何敌人的活动。协调整个无人机网络的飞行超出了人类控制人员的能力,但人工智能完全可以做到。
位于加利福尼亚州欧文的安杜里尔公司的首席战略官克里斯·布罗斯说:“人工智能的真正价值在于收集和整合来自大量传感器的数据,并消除军方操作员不感兴趣的信息。”
已有四年历史的五角大楼的“梅文计划”,旨在利用人工智能从视频源中发现并追踪敌人的活动。除了发现敌人的活动,下一步是将人工智能应用于“战场管理”——也就是说,穿透战争迷雾,帮助军事指挥官了解战争局势中发生的一切,然后决定如何应对。这可能包括调动军队、选择目标,并根据无人机群、卫星和战场及周边地区的一系列传感器提供的最新信息,引入空中支持和增援。
美国国家地理空间情报局称,该机构已经用人工智能对1200万张卫星图像进行处理以发现敌方导弹发射。军方试验性地部署了一个被称为“普罗米修斯”的基于人工智能的系统,该系统从实时成像中提取敌方活动数据,并自行确定哪些活动符合指挥官对高优先级目标的标准,并将这些位置反馈给炮兵武器以自动瞄准它们。
军方越是支持人工智能,专家和人权倡导者的反对声音就越大。一大担忧是,人工智能制导武器会错误地瞄准平民或友军,或者造成比人类操作员更多不必要的伤亡。
这种担忧是有充分理由的。从理论上讲,人工智能系统可以被外人入侵,就像任何软件一样。即使军方能够确保其人工智能系统不受黑客入侵,它或许仍无法确保人工智能软件始终按照预期运行。这是因为所谓的“黑匣子”问题:由于机器学习算法自己编写复杂且难以分析的代码,人类软件专家不能总是预测到人工智能系统在突发情况下会做什么。测试会减少但并不会消除发生意外的可能性——它无法涵盖人工智能控制的武器在冲突中可能会面对的无穷无尽的独特条件。
爱尔兰都柏林城市大学外交政策研究员詹姆斯·约翰逊说,人工智能正在“增加因误解或误判导致疏忽或意外升级的风险”。美国和俄罗斯都一再反對联合国《特定常规武器公约》禁止人工智能控制的致命武器。讨论重新审议《特定常规武器公约》的会议计划于12月举行,但人们对达成协议不太乐观。北约国家已经讨论了达成协议的可能性,但尚未有明确结果。如果美国正在与其他国家就人工智能武器进行单独谈判,那么几乎没有公开的消息。
即使外交努力使得人工智能使用受限,核实其遵守情况也要比检查核导弹发射井困难得多。在一个充满敌意、竞争激烈的世界里,军方领导人并不以他们抵制先进武器的能力而闻名,不管后果如何。
(摘自9月20日《参考消息》。原载于9月24日美国《新闻周刊》〈提前出版〉)
这位战术指挥官很可能在内华达州的克里奇空军基地工作,他从位于佛罗里达州坦帕的美国中央司令部司令肯尼思·麦肯齐那里获得了准许。由于视频素材必须在世界各地的军事指挥官之间传阅,所以通常要延迟几秒钟。美国军方说,在这种情况下,这一延迟很可能让少数平民接近目标车辆。爆炸造成包括7名儿童在内的10名阿富汗平民死亡,引起了国际社会的强烈抗议。人们开始怀疑这辆车是否真的构成威胁。
机器决定何时杀人
在军事战略家们考虑如何防止“伊斯兰国”、“基地”组织——或者任何其他偏远地区——未来可能出现的其他威胁时,他们正在寻找一种更好的远程攻击方式。这一工作正朝着一个令人不安的方向前进:让机器来决定何时杀人或杀谁。
未来几年,“死神”无人机和其他美国无人机将配备先进的人工智能技术。一个令人震惊的场景出现了:军用无人机藏在阿富汗境内或附近的小型无人基地,准备起飞、扫描地盘,并立即分析它们拍摄的图像,识别和瞄准恐怖活动,确保目标远离平民,发射导弹、确认伤亡并返回基地——这一切都在几乎没有人干预的情况下进行。
当然,为“死神”无人机装备人工智能并不主要是出于人道主义考虑。人工智能武器的真正目的是获得压倒性的军事优势——在这方面,人工智能大有可为。在美国已从阿富汗撤军且不愿将军队投入到世界上其他冲突之际,使用无人操控武器远程发动攻击的能力正在成为美国军事战略的一个关键要素。通过赋予机器自行作出战场决策的能力,人工智能使这一战略变得可行。
目前正在制定的计划,不仅要把人工智能纳入“死神”无人机上,还将包括从战斗机到潜艇再到导弹的一整套武器库,这些武器将能够打击完全在其控制下的恐怖分子和敌军。
美国前国防部副部长、人工智能国家安全委员会联合主席罗伯特·沃克说:“人工智能已经出现在战争中。所有主要的全球军事竞争对手都在探索还能用它做什么,包括美国。”无论谁赢得这场竞赛,军事力量的轮廓——谁拥有它以及如何使用它——都将发生根本性变化。
潜在军事优势巨大
20年来,装备了导弹的无人机一直是美国反恐和其他军事行动的主力,但它们造成了大量附带损失。相比之下,配备人工智能的无人机能够在几百分之一秒内发现、验证并瞄准目标,极大增强了军方远程打击能力。这一能力可以让美国在世界任何地方发动更多打击。提高无人机袭击的精确度和时效还可以减少美军对常规空袭的严重依赖。
人工智能支持的武器系统的不同之处在于其决策软件的性质和威力。人工智能软件运用“机器学习”算法,在接触到数千个成功完成任务的例子后,自己编写代码。生成的代码看上去与传统计算机编程完全不同,但它的能力远远超出传统计算机编程。人工智能武器原则上只需发射就可以监视或追踪几乎任何类型的目标,自行决定攻击时间和目标。它们可以追踪外观或行为不同的目标,转换目标,并在恶劣天气下在陌生地形进行导航,同时识别和躲避友军或平民。
人工智能的潜在军事优势巨大。动力系统集团首席技术官蒂姆·巴顿说:“人工智能可以降低执行任何任务的成本和风险,在接近对手的同时让战斗人员远离危险。它们能以光速接收和传递信息。人类无法做到这一点。”
2018年,五角大楼成立了联合人工智能中心,以推动和协调人工智能在全军的发展和融合。南丹麦大学战争研究中心副教授英维尔德·博德说:“我们正走在一条领导人不会从根本上质疑是否应该将人工智能军事化的道路上。”
无人机集群威力强
真正改变游戏规则的将是无人机集群,它们可以用足够多的摄像头或其他类型的传感器覆盖一个区域,从而发现和分析几乎任何敌人的活动。协调整个无人机网络的飞行超出了人类控制人员的能力,但人工智能完全可以做到。
位于加利福尼亚州欧文的安杜里尔公司的首席战略官克里斯·布罗斯说:“人工智能的真正价值在于收集和整合来自大量传感器的数据,并消除军方操作员不感兴趣的信息。”
已有四年历史的五角大楼的“梅文计划”,旨在利用人工智能从视频源中发现并追踪敌人的活动。除了发现敌人的活动,下一步是将人工智能应用于“战场管理”——也就是说,穿透战争迷雾,帮助军事指挥官了解战争局势中发生的一切,然后决定如何应对。这可能包括调动军队、选择目标,并根据无人机群、卫星和战场及周边地区的一系列传感器提供的最新信息,引入空中支持和增援。
美国国家地理空间情报局称,该机构已经用人工智能对1200万张卫星图像进行处理以发现敌方导弹发射。军方试验性地部署了一个被称为“普罗米修斯”的基于人工智能的系统,该系统从实时成像中提取敌方活动数据,并自行确定哪些活动符合指挥官对高优先级目标的标准,并将这些位置反馈给炮兵武器以自动瞄准它们。
增加军事误判风险
军方越是支持人工智能,专家和人权倡导者的反对声音就越大。一大担忧是,人工智能制导武器会错误地瞄准平民或友军,或者造成比人类操作员更多不必要的伤亡。
这种担忧是有充分理由的。从理论上讲,人工智能系统可以被外人入侵,就像任何软件一样。即使军方能够确保其人工智能系统不受黑客入侵,它或许仍无法确保人工智能软件始终按照预期运行。这是因为所谓的“黑匣子”问题:由于机器学习算法自己编写复杂且难以分析的代码,人类软件专家不能总是预测到人工智能系统在突发情况下会做什么。测试会减少但并不会消除发生意外的可能性——它无法涵盖人工智能控制的武器在冲突中可能会面对的无穷无尽的独特条件。
爱尔兰都柏林城市大学外交政策研究员詹姆斯·约翰逊说,人工智能正在“增加因误解或误判导致疏忽或意外升级的风险”。美国和俄罗斯都一再反對联合国《特定常规武器公约》禁止人工智能控制的致命武器。讨论重新审议《特定常规武器公约》的会议计划于12月举行,但人们对达成协议不太乐观。北约国家已经讨论了达成协议的可能性,但尚未有明确结果。如果美国正在与其他国家就人工智能武器进行单独谈判,那么几乎没有公开的消息。
即使外交努力使得人工智能使用受限,核实其遵守情况也要比检查核导弹发射井困难得多。在一个充满敌意、竞争激烈的世界里,军方领导人并不以他们抵制先进武器的能力而闻名,不管后果如何。
(摘自9月20日《参考消息》。原载于9月24日美国《新闻周刊》〈提前出版〉)