论文部分内容阅读
联合国人权理事会特别调查员Christof Heyns最近忧心忡忡,甚至有些恐惧。在他看来,如果不抓紧做一点什么,“终结者”可能真的要出现了。
在5月28日于日内瓦召开的一次人权会议上,Heyns对目前一些国家悄悄研发杀人机器人的举动提出了强烈质疑,认为这一现象已经值得各个联合国成员国成立专门委员会展开讨论,商议解决办法。
一个最新例子发生在韩国和朝鲜的国境线上。由三星集团研发的名为SGR-1的哨兵机器人,被韩国的边境部队部署在三八线上。它个头不大,只与3岁孩子相当,却能装备多种探测仪器。在侦测到闯入者后,后方人员会通过机器人盘问闯入者,并决定是否用该机器人的5.5毫米口径机枪将目标射杀。Heyns对此表达了一些更深层次的担心:这类机器人将从可以由人遥控,发展至由计算机软件和传感器装置控制,进而全自动执行识别、判断和射杀目标。
如果从技术的发展趋势上看,的确如此。
“微型传感器和人工智能技术的不断完善,的确为机器人更大范围地参与军事行动提供了很大的想像空间。”美国佐治亚科技大学机器人实验室主任Ronald Arkin教授对《第一财经周刊》说。他曾主导美国军方的一项“机器人道德软件”的研究。对于Heyns而言,这可是一个坏消息。不过另一方面,如果他决定做一些什么,或者说对“杀人机器人”持有争议的人们—这个范围可能很普遍—想要对此提出什么相应的解决办法的话,现在还有时间。
早在40多年前,一些美国科学家、工程师、国防部承包商和空军官员,就组建了一个专门的团体,研发“无需人工操作就能独立行动的机器”,并设法让公众以及对机器人技术不情不愿的五角大楼高层相信,在战场上使用机器人是个好主意。这么多年过去了,他们每年还会悄悄聚会一两次,讨论技术,或者互通小道消息。这个行事谨慎的团体名叫“国际无人系统协会”(Association for Unmanned Systems International),成员已经超过1500名,来自全世界55个国家。
他们的努力终于在9.11事件发生之后迎来了重大转机。增强机器人在敌对环境中侦查、锁定目标并实施攻击,避免让操作人员遭遇危险,成了美国国防部的一项重点研发计划。在这个计划下诞生的美国Foster-Miller公司的“魔爪”(TALON)家族,就是目前在实战中应用最广的“杀人机器人”。
魔爪最早在世贸遗址上担任搜救工作,连续工作45天未出现故障,在当时各类机器人中可靠性最强。在这个基础上,Foster-Miller又研发出了下一代应用于军事领域的TALON SWORDS。经过2003年在科威特的测试之后,2007年正式投入伊拉克战场。每一个SWORDS机器人都携带了M249机枪,这也标志着第一款携带武器的机器人被部署在实战中。TALON SWORDS安装了化学品、气体、温度和辐射的感应器,能捕捉黑白、彩色、红外、夜视等图像数据,通过双向无线电或者光纤链路,处在远方的移动控制中心就可以实现对机器人的控制,收集实时的数据画面,并且对机器人准确定位。它并不是完全自主行动,还是需要人工远程操作。事实上到目前为止它也没有真正执行过杀人行动,大部分都还只是排爆任务。
“它也不是总是带着枪的,它的机械手臂可以在一两分钟内装卸武器,也就是说它还可以用来检查简易爆炸装置,开门,或者托运伤员。”接受采访的FosterMiller项目经理Charles Dean透露,他是一位退役的陆军中校。
然而就像Heyns担心的那样,这种机器人正处于一种在技术上不断进化的状态。最初为了增强它的安全性—有时TALON SWORDS会忽然莫名其妙调转枪头,把5.56mm的M249机枪射灯对准它的人类战友,Foster-Miller强化了控制软件的安全性,推出了新一代的产品TALON MAARS。
TALON MAARS从一开始就是为攻击而设计的,它有一个全新的软件控制系统,让它不能在自己的控制单元内开火。另外,控制者也能事先选择进攻区和非进攻区,使它朝完全脱离人的控制又前进了一小步。
Foster-Miller公司目前还在完善控制器的设计,它们把控制器称为“游戏男孩”,未来的操作者只需要戴上一副眼镜,就可以像在虚拟现实中打电子游戏一样完成对机器人的操作了。它们希望未来任何一个玩游戏机长大的孩子,就能在数秒内学会如何操纵这样的机器 人。
这种设计在普通人看来的确有些冷血。不过从军方的角度考虑,部署这类机器人也很好理解:不用再为给士兵写唁电发愁,减少友军伤亡,增强火力,不知疲倦地持续监控等等。“可以让无人机根据自己的数据分析自行决定是否开火”也正在被美国等国家列入军方的开发项目。
早在2009年,美国军方刊物《美国空军》就提出,更强大的人工智能最终能让机器人做出更合适并且精确的“致命战斗决定”。他们之所以如此自信,是因为他们觉得人类士兵对于杀人这件事不见得比机器人来得更靠谱。从无人机感应器上收集处理的数据,再结合军事数据库的数据,已经可以准确推测出实际情况,比如一个导弹袭击也许会破坏周边的历史宗教建筑。聪明的软件系统不仅可以发动进攻,同样也可以中止进 攻。
然而在更多人眼中,军方的种种态度还是过于激进了。“机器人不需要保护自己,即便是在无法确定对方身份的情况下,它们也可以被用在自杀式的行动中,不再需要先斩后奏。”Ronald Arkin说。他认为用在战场上的杀人机器人可以完全颠覆著名科幻小说作家艾萨克·阿西莫夫的“机器人三大定律”,其中第一条就是“机器人不得伤害人类,或袖手旁观坐视人类受到伤 害。”
与此类似,Heyns的一个观点是,杀人机器人没有人类的感情,不会识别诸如恐惧、忧郁、愤怒等等情绪,有可能误伤已经丧失战斗力的伤员和准备投降的士兵,并且没有足够的法律问责制度。“机器人不该拥有决定人类生死的权力,因此部署此类武器系统可能令人无法接受。”Heyns提出,应该尽快制止这类机器人的真正出现。 Arkin更多在技术层面提出了自己的担心。他认为机器人有自己认知世界的方式,可不是多装几个摄像头就能像人类一样理解画面的信息。尽管高速发展的微芯片激光器技术能够制造出各种性能优异、价格低廉、微型化的传感器、执行器、驱动器和微系统,但谁也不敢说在人命关天的时候它们完全可靠。
况且从技术上看,目前人类可以“放手”让机器人执行任务的技术还远远不够完善。作为机器人最重要的“眼睛”,目前常用的三维激光雷达,以及光探测和测距系统,是类似于雷达的一种技术。只不过雷达使用的是无线电波或者微波,而激光雷达使用的是激光。目前的激光雷达系统仍存在着分辨率和成像速率的矛盾:分辨率越高,所需要的成像时间就越长,系统的成像速率就越慢,非常不适合实时应用的场合;而如果追求高成像速率,势必以牺牲分辨率为代价,对提供目标的图像特征非常不利。不断提高图像关联的速度,是提高机器人自主作战可靠程度的重大挑战之一。
此外,激光射线有可能因为浓雾、灰尘、烟雾等等被弹回,让机器人感觉自己好像遇到了障碍,最终导致机器人认为自己面对的是一个无限深的大洞。要实现机器人自主更精确可靠的识别,还需要有赖于其他技术的不断进步。
所有传感器的数据都会导入认知系统,需处理这些数据并做出反应,对软件算法也提出了很高要求。2006年到2009年,Arkin曾从美国军队研究办公室得到一笔资金,研究机器人道德软件如何应用在实战中的机器人自主系统。“我接受这个项目是因为我担心由于技术发展太快,如果不采取必要的保护措施,意味着会对战争地区的非武装人员造成严重的伤害。对失去战斗力状态的认知也是实现机器人自主运行的一大难点。”他 说。
现在这个概念软件已经完成,技术上的可行性被证实。Arkin最终退出了软件的开发,由美国军方直接接手。这意味着在理论上,随着当前技术的不断优化,“终结者”的确有可能成为现实。
“在机器人对战场上复杂环境的判断分析能力还非常不稳定的时候赋予机器人生杀大权,显然是很危险的。”Arkin说。
即便是有操作人员在控制,杀人机器们还是有不小的误伤率。著名的捕食者和它的姐妹机型收割者,这两种无人机系统在战争中因为情报失误而造成的平民伤亡报道已经屡见不鲜。根据伦敦新闻调查局的调查,在过去的八年中,由美国中央情报局发起的无人机进攻光是在巴基斯坦就已经造成了2400人死亡,其中包括479个平民。
根据Heyns的报告,目前美国、英国、以色列、韩国和日本都在积极研发各种类型的智能或半智能的杀人机器人。不管技术如何发展,如何“识别”人类的感情、在战场上做出合适的判断,都是未来“终结者”们面对的一大难题。
对于其中的答案,军方和外界的标准恐怕会大不相同。比如从军方的标准看,无人控制机器人的部署会大大减少士兵在战场上的伤亡;而在更多人看来,在没有了人为干预之后,机器人的使用也会大大增加无辜平民受到伤害的概率。到了那时,杀人机器人恐怕也会像当初的“克隆羊”一样,遭遇道德、伦理和舆论的困 境。
是否允许出现“终结者”,并不仅仅只是一个技术问题。
在5月28日于日内瓦召开的一次人权会议上,Heyns对目前一些国家悄悄研发杀人机器人的举动提出了强烈质疑,认为这一现象已经值得各个联合国成员国成立专门委员会展开讨论,商议解决办法。
一个最新例子发生在韩国和朝鲜的国境线上。由三星集团研发的名为SGR-1的哨兵机器人,被韩国的边境部队部署在三八线上。它个头不大,只与3岁孩子相当,却能装备多种探测仪器。在侦测到闯入者后,后方人员会通过机器人盘问闯入者,并决定是否用该机器人的5.5毫米口径机枪将目标射杀。Heyns对此表达了一些更深层次的担心:这类机器人将从可以由人遥控,发展至由计算机软件和传感器装置控制,进而全自动执行识别、判断和射杀目标。
如果从技术的发展趋势上看,的确如此。
“微型传感器和人工智能技术的不断完善,的确为机器人更大范围地参与军事行动提供了很大的想像空间。”美国佐治亚科技大学机器人实验室主任Ronald Arkin教授对《第一财经周刊》说。他曾主导美国军方的一项“机器人道德软件”的研究。对于Heyns而言,这可是一个坏消息。不过另一方面,如果他决定做一些什么,或者说对“杀人机器人”持有争议的人们—这个范围可能很普遍—想要对此提出什么相应的解决办法的话,现在还有时间。
早在40多年前,一些美国科学家、工程师、国防部承包商和空军官员,就组建了一个专门的团体,研发“无需人工操作就能独立行动的机器”,并设法让公众以及对机器人技术不情不愿的五角大楼高层相信,在战场上使用机器人是个好主意。这么多年过去了,他们每年还会悄悄聚会一两次,讨论技术,或者互通小道消息。这个行事谨慎的团体名叫“国际无人系统协会”(Association for Unmanned Systems International),成员已经超过1500名,来自全世界55个国家。
他们的努力终于在9.11事件发生之后迎来了重大转机。增强机器人在敌对环境中侦查、锁定目标并实施攻击,避免让操作人员遭遇危险,成了美国国防部的一项重点研发计划。在这个计划下诞生的美国Foster-Miller公司的“魔爪”(TALON)家族,就是目前在实战中应用最广的“杀人机器人”。
魔爪最早在世贸遗址上担任搜救工作,连续工作45天未出现故障,在当时各类机器人中可靠性最强。在这个基础上,Foster-Miller又研发出了下一代应用于军事领域的TALON SWORDS。经过2003年在科威特的测试之后,2007年正式投入伊拉克战场。每一个SWORDS机器人都携带了M249机枪,这也标志着第一款携带武器的机器人被部署在实战中。TALON SWORDS安装了化学品、气体、温度和辐射的感应器,能捕捉黑白、彩色、红外、夜视等图像数据,通过双向无线电或者光纤链路,处在远方的移动控制中心就可以实现对机器人的控制,收集实时的数据画面,并且对机器人准确定位。它并不是完全自主行动,还是需要人工远程操作。事实上到目前为止它也没有真正执行过杀人行动,大部分都还只是排爆任务。
“它也不是总是带着枪的,它的机械手臂可以在一两分钟内装卸武器,也就是说它还可以用来检查简易爆炸装置,开门,或者托运伤员。”接受采访的FosterMiller项目经理Charles Dean透露,他是一位退役的陆军中校。
然而就像Heyns担心的那样,这种机器人正处于一种在技术上不断进化的状态。最初为了增强它的安全性—有时TALON SWORDS会忽然莫名其妙调转枪头,把5.56mm的M249机枪射灯对准它的人类战友,Foster-Miller强化了控制软件的安全性,推出了新一代的产品TALON MAARS。
TALON MAARS从一开始就是为攻击而设计的,它有一个全新的软件控制系统,让它不能在自己的控制单元内开火。另外,控制者也能事先选择进攻区和非进攻区,使它朝完全脱离人的控制又前进了一小步。
Foster-Miller公司目前还在完善控制器的设计,它们把控制器称为“游戏男孩”,未来的操作者只需要戴上一副眼镜,就可以像在虚拟现实中打电子游戏一样完成对机器人的操作了。它们希望未来任何一个玩游戏机长大的孩子,就能在数秒内学会如何操纵这样的机器 人。
这种设计在普通人看来的确有些冷血。不过从军方的角度考虑,部署这类机器人也很好理解:不用再为给士兵写唁电发愁,减少友军伤亡,增强火力,不知疲倦地持续监控等等。“可以让无人机根据自己的数据分析自行决定是否开火”也正在被美国等国家列入军方的开发项目。
早在2009年,美国军方刊物《美国空军》就提出,更强大的人工智能最终能让机器人做出更合适并且精确的“致命战斗决定”。他们之所以如此自信,是因为他们觉得人类士兵对于杀人这件事不见得比机器人来得更靠谱。从无人机感应器上收集处理的数据,再结合军事数据库的数据,已经可以准确推测出实际情况,比如一个导弹袭击也许会破坏周边的历史宗教建筑。聪明的软件系统不仅可以发动进攻,同样也可以中止进 攻。
然而在更多人眼中,军方的种种态度还是过于激进了。“机器人不需要保护自己,即便是在无法确定对方身份的情况下,它们也可以被用在自杀式的行动中,不再需要先斩后奏。”Ronald Arkin说。他认为用在战场上的杀人机器人可以完全颠覆著名科幻小说作家艾萨克·阿西莫夫的“机器人三大定律”,其中第一条就是“机器人不得伤害人类,或袖手旁观坐视人类受到伤 害。”
与此类似,Heyns的一个观点是,杀人机器人没有人类的感情,不会识别诸如恐惧、忧郁、愤怒等等情绪,有可能误伤已经丧失战斗力的伤员和准备投降的士兵,并且没有足够的法律问责制度。“机器人不该拥有决定人类生死的权力,因此部署此类武器系统可能令人无法接受。”Heyns提出,应该尽快制止这类机器人的真正出现。 Arkin更多在技术层面提出了自己的担心。他认为机器人有自己认知世界的方式,可不是多装几个摄像头就能像人类一样理解画面的信息。尽管高速发展的微芯片激光器技术能够制造出各种性能优异、价格低廉、微型化的传感器、执行器、驱动器和微系统,但谁也不敢说在人命关天的时候它们完全可靠。
况且从技术上看,目前人类可以“放手”让机器人执行任务的技术还远远不够完善。作为机器人最重要的“眼睛”,目前常用的三维激光雷达,以及光探测和测距系统,是类似于雷达的一种技术。只不过雷达使用的是无线电波或者微波,而激光雷达使用的是激光。目前的激光雷达系统仍存在着分辨率和成像速率的矛盾:分辨率越高,所需要的成像时间就越长,系统的成像速率就越慢,非常不适合实时应用的场合;而如果追求高成像速率,势必以牺牲分辨率为代价,对提供目标的图像特征非常不利。不断提高图像关联的速度,是提高机器人自主作战可靠程度的重大挑战之一。
此外,激光射线有可能因为浓雾、灰尘、烟雾等等被弹回,让机器人感觉自己好像遇到了障碍,最终导致机器人认为自己面对的是一个无限深的大洞。要实现机器人自主更精确可靠的识别,还需要有赖于其他技术的不断进步。
所有传感器的数据都会导入认知系统,需处理这些数据并做出反应,对软件算法也提出了很高要求。2006年到2009年,Arkin曾从美国军队研究办公室得到一笔资金,研究机器人道德软件如何应用在实战中的机器人自主系统。“我接受这个项目是因为我担心由于技术发展太快,如果不采取必要的保护措施,意味着会对战争地区的非武装人员造成严重的伤害。对失去战斗力状态的认知也是实现机器人自主运行的一大难点。”他 说。
现在这个概念软件已经完成,技术上的可行性被证实。Arkin最终退出了软件的开发,由美国军方直接接手。这意味着在理论上,随着当前技术的不断优化,“终结者”的确有可能成为现实。
“在机器人对战场上复杂环境的判断分析能力还非常不稳定的时候赋予机器人生杀大权,显然是很危险的。”Arkin说。
即便是有操作人员在控制,杀人机器们还是有不小的误伤率。著名的捕食者和它的姐妹机型收割者,这两种无人机系统在战争中因为情报失误而造成的平民伤亡报道已经屡见不鲜。根据伦敦新闻调查局的调查,在过去的八年中,由美国中央情报局发起的无人机进攻光是在巴基斯坦就已经造成了2400人死亡,其中包括479个平民。
根据Heyns的报告,目前美国、英国、以色列、韩国和日本都在积极研发各种类型的智能或半智能的杀人机器人。不管技术如何发展,如何“识别”人类的感情、在战场上做出合适的判断,都是未来“终结者”们面对的一大难题。
对于其中的答案,军方和外界的标准恐怕会大不相同。比如从军方的标准看,无人控制机器人的部署会大大减少士兵在战场上的伤亡;而在更多人看来,在没有了人为干预之后,机器人的使用也会大大增加无辜平民受到伤害的概率。到了那时,杀人机器人恐怕也会像当初的“克隆羊”一样,遭遇道德、伦理和舆论的困 境。
是否允许出现“终结者”,并不仅仅只是一个技术问题。