论文部分内容阅读
致命性自主武器系统(Lethal Autonomous Weapon Systems,以下简称LAWS)的合法性是国际人道法近来极具争议的话题。LAWS区别于传统武器装备,集智能性、自主性和致命性于一身,可以在没有人类参与的情况下选择目标并攻击目标。致命性自主武器系统的出现给国际人道法带来了很多挑战,其中致命性自主武器系统的合法性问题最具争议,而LAWS可否遵守区分原则是探讨其合法性的关键。各国已经纷纷研发并尝试部署致命性自主武器系统,有必要加紧制定国际法规则的协商与订立,防范不加规制可能带来的严重后果。针对致命性自主武器系统合法性的研究成果很多,但是多为宏观指出系统可能存在的法律风险,指出LAWS违反区分原则的可能性。目前,对致命性自主武器系统的合法性进行微观层面的深入探究是缺少的,但却是必要的。区分原则是LAWS应当遵循的首要原则,根据区分原则的要求,LAWS不能部署在既有的不加区分的武器之上,并且,致命性自主武器系统本身具有履行区分原则义务的基本组件,不属于不加区分的武器,可以区分使用,在特定的条件下还具有作战优势。LAWS区别于传统武器的一些特征给遵守区分原则带来了一些难题,“军事目标”、“直接参与作战”、“平民”等概念的界定模糊,国家之间也没有统一的标准,都使LAWS理解区分原则的要求具有很大的困难,因而需要进一步明确区分原则的相关概念;反过来,LAWS也对区分原则提出了更高的要求,LAWS固有的精准性促使区分原则应当更严格地解释不分皂白的攻击、缩小附带损害的范围、适当改变区分的标准,否则LAWS部队会轻易违反这些规定。LAWS的算法技术在满足区分原则的要求时会出现一些障碍,比如会产生算法偏见进而影响区分的公平性,难以像人一样自由裁量进而重新识别目标,判定军事必要等等。在如何规制致命性自主武器系统的问题上,全面禁止致命性自主武器系统的方式是不可取的。LAWS在区分上有人类难以比拟的优点,在某些场合可以直接使用,而在另外一些需要权衡人类生死或者进行自由裁量的场合则需要保留人类的参与和最终决定权。需要建立让法学家、人工智能专家、学家、武器学专家一同对话的机制,共同探讨、把握LAWS的发展方向,让其向着对人类有益的方向发展。