论文部分内容阅读
摘要:随着信息技术的不断智能化发展,机器人的发展取得了一系列的重大突破,从执行简单指令到以深度学习为核心,机器人成为时代进一步发展的强大动力。随着其使用范围不停地扩大和深入,机器人也日益与人类关系密切。出于对人身安全的考虑,人类也开始反思和重视机器人的道德伦理问题。本文通过对机器人道德伦理的发展及其未来进行分析阐述,以期可以让读者对机器人道德伦理有更加深刻、更加全面的认识。
关键词: 人工智能 机器人 道德伦理
中图分类号:G644
一、机器人道德伦理的早期设想
机器人“Robot”是由捷克语“Robota”改编而来,“Robota”是指“强制性劳动”或“奴隶”,即只会从事繁重作业而不会感到劳累的机器,由此“Robot”才正式作为专业术语被人加以引用[1]。
机器人的早期出现是为了减少战场上不必要的人员伤亡,而战争后,工业革命的接连发生致使机器人成为工厂进行作业的主力,近年来信息技术不断的智能化使得机器人在更多的领域之中使用。在机器人快速发展的同时,人类也对机器人产生了担忧——机器人是否会威胁到人类的生存。
1942年阿西莫夫在《环舞》中首次提出“机器人三大定律”[2],试图以此来规范和约束机器人的行为:
1.机器人不能对人类的生命安全造成伤害,或者间接让任何人受到伤害。
2.机器人必须服从人类的命令,除非该命令伤害到人类;
3.机器人必须对自己的生存负责,条件是不与前两条法则矛盾。
阿西莫夫在这之后又补充了第零定律:“机器人必须确保人类的整体利益不受到伤害,这一条件优先于其他三条法则”。
阿西莫夫的机器人三大法则是简单的关系原则,它的运行依靠高度理性的力量,认为守法即正义,违法即邪恶。他率先定义了机器人道德伦理,严格来说是对机器人的道德伦理要求,把机器人设想成在康德意义上的道德生物。不违背三大定律的机器人,都有高度的自我约束意识和道德自律能力。
阿西莫夫提到的“机器人三大定律”直到现在仍被使用。而1979年发生的工人试图从仓库取回一些零件而被机器人杀死;和1981年一个日本维修工人在进行机器维修的时而被机器人杀死[3]的事件,致使更多科学家开始研究如何避免机器误伤人事件的发生,并在研究中开始进一步思考是否应该对机器人进行道德伦理建构。
二、目前机器人道德伦理的三种理论进路
随着科技和机器人技术的发展,机器人系统也日趋复杂,而这种复杂性要求机器人系统自身可以做出道德决策,即通过“伦理子程序”来程序化,而科学家将这称之为人工道德智能体(AMAs)。
但是,针对机器是否应该具有道德,即人工道德智能体的建设有无必要性这一点科学界仍在进行探讨,同时也探讨在理论上如何有可能的构建人工道德智能体。耶鲁大学教授温尔德·瓦拉赫和著名认知哲学家科林·艾伦一同创作的《道德机器: 如何让机器人明辨是非》一书,从理论上探讨机器人伦理设计最具影响力的成果,他们把人工道德智能体的设计进路分为自上而下、自下而上和混合进路三种[4]。
一般而言,自上而下式进路是指在构建人工道德智能体应该选取一个伦理理论,如道义论或功利主义,在计算机程序中分析实现这一理论在信息和程序上的必要条件,接着把分析应用到设计子系统和它們相互之间联系的方式上,因此在最初,科学家们对于机器人道德伦理的研究通常集中于自上而下的规范、标准和对道德判断的理论进路。自上而下式进路不仅凸显了伦理价值的重要性,也能够帮助道德智能体辨明模糊的道德直觉方面。但是自上而下式进路也有其缺陷,一是很难辨别究竟是什么样的更为具体的规则或准则才能得到人类的一致认可,另是人类也不可能计算出所有的可能,因此为人工道德智能体打造一套明确的自上而下的规则是行不通的。
自下而上式进路是基于进化与发展的观点提出的,其重点是将行为体置于一个特定的环境中,而行为体在这其中可以像人一样进行学习,并进一步发现或构建伦理原则,而不是如自上而下式进路一般直接定义了什么是道德。自上而下式进路在培育智能体的隐含价值观上表现的更为直接,这种通过自下而上的发展方式更能反映出行为体具体的因果决定因素。因此自下而上式进路要求人工道德智能体能够进行自我发展,而发展则是一个漫长和反复的过程。但是这种进路也存在某种缺陷,一是这一进路也许缺乏安全性,如让系统处于道德伦理自上而下的引导下;二是这种自下而上的进化进路似乎也是人类负担不起的奢侈。
从上述看,自上而下和自下而上两种进路都具有明显的劣势,都不足以解决目前所面临的问题,因此温尔德和科林便提出了第三种进路——混合式进路。
工程师们对于复杂任务,通常都是从自上而下式的分析开始,去指导自下而上式地组织模块。因此自上而下进路与自下而上进路的相互作用称之为混合式进路,而如何将这两个进路统一起来则成为科学家们思考的一个问题,在亚里士多德教诲中我们可以找到解决问题的关键,伦理美德与实践智慧和智识美德,他认为,智识美德是可学习的,但是伦理美德却需要通过习惯养成和实践练习,这就意味着将不同的美德安置在人工道德智能体上可能需要不同的方式。
温尔德和科林提出的构建人工道德智能体的混合式理论进路在军事界也受到广泛关注,如在国外的《自主军用机器人: 风险、伦理与设计》这一报告中,就提出应该采用这一进路来设计军用机器人[5]。
三、对机器人道德伦理的未来设想
自上而下进路、自下而上进路和混合式进路都是在理论上描述该如何设计人工道德智能体,但是没有任何人知道该如何去实现它。
根据理论上的三种进路,研究人员也提出了在实际中应该如何设计道德软件的三条一般进路[6],也许可能不止是三条进路,但是,在已经开始的现实的编程工作中,就只采用了以下三条进路:
一是基于逻辑的进路,它试图提供一个数学上严格的框架来模拟理性智能体的道德推理;
二是基于案例的进路,从道德或不道德的行为事例中探索各种推理或学习道德行为的方式;
三是多智能体进路,则研究当遵循不同伦理策略的智能体相互作用时都会发生什么。
由于道德软件正处于起步阶段,为了更进一步的发展,我们也应该将感性方面的社交性、意识和情感等考虑到人工道德智能体的软件设计中。也只有理性与感性的结合才能设计出更像人的人工道德智能体,这也将是未来机器人的道德伦理所发展的方向。
参考文献
[1]曾艳涛.机器人的前世今生[J].机器人技术与应用,2012(02):1-5.
[2]张雪娇. 阿西莫夫对机器人世界的伦理凝视[D].华中师范大学,2015.
[3]王东浩. 机器人伦理问题研究[D].南开大学,2014.
[4]杜严勇.机器人伦理设计进路及其评价[J].哲学动态,2017(09):84-91.
[5]Patrick Lin,George Bekey,Keith Abney,Autonomous Military Robotics: Risk, Ethics and Design, http://ethics. calpoly. edu /onr report. pdf.
[6]Wendell Wallach,Colin Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford 90 University Press,2009.
作者简介:张彤(1995- ),女,陕西宝鸡人,武汉理工大学哲学系在读硕士。
关键词: 人工智能 机器人 道德伦理
中图分类号:G644
一、机器人道德伦理的早期设想
机器人“Robot”是由捷克语“Robota”改编而来,“Robota”是指“强制性劳动”或“奴隶”,即只会从事繁重作业而不会感到劳累的机器,由此“Robot”才正式作为专业术语被人加以引用[1]。
机器人的早期出现是为了减少战场上不必要的人员伤亡,而战争后,工业革命的接连发生致使机器人成为工厂进行作业的主力,近年来信息技术不断的智能化使得机器人在更多的领域之中使用。在机器人快速发展的同时,人类也对机器人产生了担忧——机器人是否会威胁到人类的生存。
1942年阿西莫夫在《环舞》中首次提出“机器人三大定律”[2],试图以此来规范和约束机器人的行为:
1.机器人不能对人类的生命安全造成伤害,或者间接让任何人受到伤害。
2.机器人必须服从人类的命令,除非该命令伤害到人类;
3.机器人必须对自己的生存负责,条件是不与前两条法则矛盾。
阿西莫夫在这之后又补充了第零定律:“机器人必须确保人类的整体利益不受到伤害,这一条件优先于其他三条法则”。
阿西莫夫的机器人三大法则是简单的关系原则,它的运行依靠高度理性的力量,认为守法即正义,违法即邪恶。他率先定义了机器人道德伦理,严格来说是对机器人的道德伦理要求,把机器人设想成在康德意义上的道德生物。不违背三大定律的机器人,都有高度的自我约束意识和道德自律能力。
阿西莫夫提到的“机器人三大定律”直到现在仍被使用。而1979年发生的工人试图从仓库取回一些零件而被机器人杀死;和1981年一个日本维修工人在进行机器维修的时而被机器人杀死[3]的事件,致使更多科学家开始研究如何避免机器误伤人事件的发生,并在研究中开始进一步思考是否应该对机器人进行道德伦理建构。
二、目前机器人道德伦理的三种理论进路
随着科技和机器人技术的发展,机器人系统也日趋复杂,而这种复杂性要求机器人系统自身可以做出道德决策,即通过“伦理子程序”来程序化,而科学家将这称之为人工道德智能体(AMAs)。
但是,针对机器是否应该具有道德,即人工道德智能体的建设有无必要性这一点科学界仍在进行探讨,同时也探讨在理论上如何有可能的构建人工道德智能体。耶鲁大学教授温尔德·瓦拉赫和著名认知哲学家科林·艾伦一同创作的《道德机器: 如何让机器人明辨是非》一书,从理论上探讨机器人伦理设计最具影响力的成果,他们把人工道德智能体的设计进路分为自上而下、自下而上和混合进路三种[4]。
一般而言,自上而下式进路是指在构建人工道德智能体应该选取一个伦理理论,如道义论或功利主义,在计算机程序中分析实现这一理论在信息和程序上的必要条件,接着把分析应用到设计子系统和它們相互之间联系的方式上,因此在最初,科学家们对于机器人道德伦理的研究通常集中于自上而下的规范、标准和对道德判断的理论进路。自上而下式进路不仅凸显了伦理价值的重要性,也能够帮助道德智能体辨明模糊的道德直觉方面。但是自上而下式进路也有其缺陷,一是很难辨别究竟是什么样的更为具体的规则或准则才能得到人类的一致认可,另是人类也不可能计算出所有的可能,因此为人工道德智能体打造一套明确的自上而下的规则是行不通的。
自下而上式进路是基于进化与发展的观点提出的,其重点是将行为体置于一个特定的环境中,而行为体在这其中可以像人一样进行学习,并进一步发现或构建伦理原则,而不是如自上而下式进路一般直接定义了什么是道德。自上而下式进路在培育智能体的隐含价值观上表现的更为直接,这种通过自下而上的发展方式更能反映出行为体具体的因果决定因素。因此自下而上式进路要求人工道德智能体能够进行自我发展,而发展则是一个漫长和反复的过程。但是这种进路也存在某种缺陷,一是这一进路也许缺乏安全性,如让系统处于道德伦理自上而下的引导下;二是这种自下而上的进化进路似乎也是人类负担不起的奢侈。
从上述看,自上而下和自下而上两种进路都具有明显的劣势,都不足以解决目前所面临的问题,因此温尔德和科林便提出了第三种进路——混合式进路。
工程师们对于复杂任务,通常都是从自上而下式的分析开始,去指导自下而上式地组织模块。因此自上而下进路与自下而上进路的相互作用称之为混合式进路,而如何将这两个进路统一起来则成为科学家们思考的一个问题,在亚里士多德教诲中我们可以找到解决问题的关键,伦理美德与实践智慧和智识美德,他认为,智识美德是可学习的,但是伦理美德却需要通过习惯养成和实践练习,这就意味着将不同的美德安置在人工道德智能体上可能需要不同的方式。
温尔德和科林提出的构建人工道德智能体的混合式理论进路在军事界也受到广泛关注,如在国外的《自主军用机器人: 风险、伦理与设计》这一报告中,就提出应该采用这一进路来设计军用机器人[5]。
三、对机器人道德伦理的未来设想
自上而下进路、自下而上进路和混合式进路都是在理论上描述该如何设计人工道德智能体,但是没有任何人知道该如何去实现它。
根据理论上的三种进路,研究人员也提出了在实际中应该如何设计道德软件的三条一般进路[6],也许可能不止是三条进路,但是,在已经开始的现实的编程工作中,就只采用了以下三条进路:
一是基于逻辑的进路,它试图提供一个数学上严格的框架来模拟理性智能体的道德推理;
二是基于案例的进路,从道德或不道德的行为事例中探索各种推理或学习道德行为的方式;
三是多智能体进路,则研究当遵循不同伦理策略的智能体相互作用时都会发生什么。
由于道德软件正处于起步阶段,为了更进一步的发展,我们也应该将感性方面的社交性、意识和情感等考虑到人工道德智能体的软件设计中。也只有理性与感性的结合才能设计出更像人的人工道德智能体,这也将是未来机器人的道德伦理所发展的方向。
参考文献
[1]曾艳涛.机器人的前世今生[J].机器人技术与应用,2012(02):1-5.
[2]张雪娇. 阿西莫夫对机器人世界的伦理凝视[D].华中师范大学,2015.
[3]王东浩. 机器人伦理问题研究[D].南开大学,2014.
[4]杜严勇.机器人伦理设计进路及其评价[J].哲学动态,2017(09):84-91.
[5]Patrick Lin,George Bekey,Keith Abney,Autonomous Military Robotics: Risk, Ethics and Design, http://ethics. calpoly. edu /onr report. pdf.
[6]Wendell Wallach,Colin Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford 90 University Press,2009.
作者简介:张彤(1995- ),女,陕西宝鸡人,武汉理工大学哲学系在读硕士。