论文部分内容阅读
世界各国正在加紧推动人工智能的军事化应用,以提高武器系统的自主能力和智能化程度,加快研发和部署用于实战的自主战斗型机器人。人工智能武器,以其高度自主性为典型特征,具备致命性杀伤力,在战场中能够根据实时战况自主决策,即在无人工参与或者干预的情况下选择目标,决定是否发动攻击以及如何发动攻击。人工智能在军事领域的应用催生新的战争形态,改变了战争模式,也可能会挑战人类伦理与道德底线,产生涉及法律、道德、信任、技术等一系列难题。其中,人工智能武器以其打击的精确性与高效性可以减少武装冲突中的人员伤亡、增强指挥决策、控制战争的杀伤范围,同时也会降低发动战争的政治成本,引发军备竞赛,存在智能武器技术扩散的风险。将战场上的生杀大权完全交给了机器人系统而脱离了人类的控制,无疑会给国际人道法带来法律、伦理等方面的挑战。人工智能武器,作为独立于人工控制的自主武器系统,在战争环境中使用对国际人道法构成潜在的挑战主要有以下:1)人工智能武器如何区分平民和战斗员,避免误伤?2)人工智能武器如何自主决定作战手段的使用,从而满足比例原则的要求?3)人工智能武器如何捍卫人性良知?4)如何追究人工智能武器违反以上原则的战争责任?对于这些问题本文从以下路径进行分析。通过运用法教义学国际法解释方法分析现有国际人道法法律渊源,以识别人工智能武器在国际人道法下可能面临的合法性与合理性问题。对于人工智能武器的合法性问题,本文通过追溯国际人道法三原则(区分原则、比例原则、马顿斯条款)的法律渊源,结合国际社会嗣后实践对三原则逐一解释,运用法教义学、国家实践分析、纽黑文学派政策导向分析等研究方法,深入阐述了人工智能武器对国际人道主义法下的合法性争议。对于人工智能武器的合理性问题,本文梳理了人工智能武器日益显现出的伦理和安全风险,强调对该武器系统所造成的危害后果进行问责的必要性。通过研究可以识别出,人工智能武器在国际人道法的规制下面临的四个主要的合法性与合理性困境如下:一、挑战区分原则。区分原则要求冲突各方无论何时均应该在平民与战斗员、民用物体与军事目标之间做出区分,仅可对军事目标和战斗人员进行攻击。人工智能武器不一定能可靠地准确地分辨战斗员和平民,无法充分理解所处环境和人类行为,难以在复杂情况下区分有关和无关信息。二、违反比例原则。比例原则要求平衡军事必要与人道主义要求,在攻击时确保平民或者民用物体所造成的不可避免的附带伤亡或损害与预期军事利益合比例,并将其限制在最小范围之内,以及禁止使用引起过分伤害和不必要痛苦性质的作战方法和手段。但是人工智能武器难以落实比例原则,由于对比例原则的定性问题具有较强的主观性质,很难对军事利益进行界定,无法保证附带性损害与比例评估合情合理,无法判断准备进行的攻击是否符合比例性要求。三、冲击马顿斯条款。马顿斯条款,作为兜底条款适用于没有现行法律规制的情形,要求任何新武器仍然需要遵守“人道主义”,禁止违背“公众良心指引”。人工智能武器没有怜悯之心,无法在具体、复杂又无法预测的情境中做出合法又合乎伦理的决策,这些没有生命力、毫无感情的机器,不能理解人类生命的价值和失去生命的意义,仅仅根据算法来取代人类进行生死决策,根本上漠视了人的生命与尊严。另一方面,人工智能武器的技术隐患令人担忧,智能化武器装备在复杂战场环境下,受到外来因素干扰易失控,造成灾难性后果,加剧安全风险。四、难以对人工智能武器进行追责。人工智能武器的机器属性,不仅带来以上道德和法律困境,而且对其造成的危害后果难以问责。使用人工智能武器是否符合国际人道法,人工智能武器造成的过重伤亡后果如何确认责任主体,如何进行责任追究,这些问题仍未解决。随后本文还注意到,如果该武器广泛应用于未来战场,可能破坏国际局势的稳定,进一步拉大发达国家与发展中国家的差距,不利于国际和平与安全,根本上违背人道主义。随着这种自主武器日益显现出伦理和安全风险,限制或禁止自主武器成为主流观点,人们的担忧集中于技术层面,但仍有很多学者提出“道德控制器”的构想,主张通过技术使机器和人一样具备道德准则和思考能力,从而符合国际人道法的要求。本文在实证总结当前国际社会对人工智能武器态度的基础上,认为可以期待通过国际合作建立国际规范,达成人类对该武器掌握最终控制权的共识,制定相关技术标准与审查机制,使人工智能武器造福人类。最后本文结合中国的实际诉求和实践,认为中国应当积极展开国际合作,推动建立完善规制人工智能武器的国际法框架,构建既符合国际社会也符合本国国情的技术标准,完善针对人工智能武器的审查制度,掌握制定国际规则的话语权,由此实现由参与国际造法者向主导国际造法者的身份转变,确保战略利益的同时营造负责的大国形象,为世界和平做出更大贡献。本文的创新点主要有三个方面:1)研究方法创新,引入政策导向学派的实证方法至中国国际法研究;2)研究路径创新,立足国际人道法三原则的法律渊源,解释相关条约的法律要点,综合国家实践,借鉴国际法院关于核武器咨询意见案的主要观点,对人工智能武器的合法性及合理性展开深入分析;3)为中国实践和政策提供建议,通过比较国内外学者、科学研究人员、国际组织等各方对规制人工智能武器这一问题的态度与路径,提出尽快构建国际共识与国际标准,并辅之以国内审查机制的建议,同时结合实际情况对中国应当如何参与到人工智能武器的全球治理提出建议。基于以上,本文得出以下结论:事实上,在全球范围内禁止人工智能武器的研发和使用是不现实的,主要国家主张控制自主武器的意愿并不强烈,各国用自主武器带来的军事战略优势与人道主义的博弈,在可预见的很长一段时期内将难以达成国际协定。人类有必要未雨绸缪,在发展人工智能武器时坚守一条底线,人类必须实现对人工智能武器的有效控制。世界各国应当尽快制定约束人工智能武器的国际规范,建立各国国内审查机制,制定行业统一标准,使人工智能武器在人类的控制之下使用,并且使用的方式不得违反国际人道法的规定,尽力控制伦理和安全风险,让其为人类和平福祉服务。