论文部分内容阅读
过去几年间,由麻省理工学院主办的“道德机器”研究,调查了公众对人工智能应用程序在各类设定中该如何表现的偏好。数据的一个结论是,当自动驾驶汽车遇到生死攸关的情景时,人们认为它该如何应对的观点,在很大程度上会取决于此人来自何处,以及人们对事故所涉及的行人或乘客的了解。
例如,在自动驾驶版本的经典“手推车难题”中,有些人可能更喜欢汽车在伤害他人之前撞到一个已被定罪的杀人凶手,或者撞到老年人而不是小孩。还有一些人可能认为,自动驾驶汽车应该简单地掷骰子,以防止以数据为导向的歧视。
一般来说,此类窘境都是事后保留给警方或法官去调查和决断的。但在自动驾驶的情况下,选择将在几毫秒内完成,意味着几乎没有足够的时间来作出明智的决定。重要的不是我们所知道的,而是汽车所知道的。那么问题在于自动驾驶应该对周围的人占有什么信息?企业是否应被允许去适用不同的道德体系,以追求竞争优势?
请考虑以下情况:一辆中国车与美国车有不同的工厂设定标准,但假设这辆中国车正在美国行驶,并即将与一辆美国车发生不可避免的碰撞。倘若中国汽车驾驶员的道德偏好不同于美国汽车驾驶员,那么哪个系统应该占上风?
除了基于文化的道德偏好差异外,还必须考虑各国数据法规的差异。例如中国制造的汽车可能会获得社会评分数据,从而使其决策算法能够纳入美国汽车制造商所无法获取的额外输入。更丰富的数据可以带来更好、更一致的决策,但拥有这一优势是否就该允许一个系统去凌驾于另一个系统?
很显然,在自动驾驶车辆大规模上路之前,我们需要确定算法决策的责任究竟落在哪里,是市政当局、国家政府还是多边机构?更重要的是,我们需要新的框架来管理这个商业和国家的交叉点。
不难想象,所有自动驾驶车辆制造商都会简单地宣传自己那套系统会将驾驶员的生命置于首位,或是允许用户切换自身的道德设置。为了防止这种“公地悲剧”,必须建立在自动驾驶车辆决策之间进行通信和协调的框架。但是,在不同文化背景下开发此类系统时,政策制定者和企业将必须面对不同的主权、隐私和个人自治的文化概念。
这将引发额外的挑战,因为人工智能系统无法容忍歧义。从头开始设计人工智能应用程序需要非常明确;无论效果如何,这些系统只会按照你告诉它们的方式行事。这意味着企业、政府和其他提供商在编写针对不同情况的响应规则时,需要做出明确的抉择。
但在这一切发生之前,政策制定者们需要订立算法问责制的范围,以确定应该把哪些决策留给企业或个人(如有的话)。那些属于国家职权范围的责任,必须经由辩论商讨来决定。虽然无法拿出一个最终解决方案,但我們需要创建一些至少能促进自动驾驶车辆之间通信以及“裁决算法争议和道路事故”的系统。
鉴于在设计决策算法时需要明确性,因此有必要建立一个国际机构来制定标准。这种算法问责制的标准,必须能被应用于管理许多领域。最终,我们必须决定的首要问题是,企业是否有权为算法决策设计另一套道德框架。在我们看来,它们是不应该有的。
在这个人工智能时代,全球价值链的某些组成部分最终会实现自动化,此时它们将不再被视为企业追求竞争优势的领域。确定和裁决算法问责制的过程,应该就处于这样一个领域。无论以什么方式我们都将作出决定,而且最好是统一并尽可能民主地解决。
本文由Project Syndicate授权《南风窗》独家刊发中文版。马克·埃斯波斯托,霍特国际商学院和哈佛大学商业和经济学教授;谢慈铭,欧洲高等商学院伦敦分校教授;约书亚·恩特斯明格,Nexus FrontierTech研究员;奥德丽·让,In Silico Veritas药业公司创始人。
例如,在自动驾驶版本的经典“手推车难题”中,有些人可能更喜欢汽车在伤害他人之前撞到一个已被定罪的杀人凶手,或者撞到老年人而不是小孩。还有一些人可能认为,自动驾驶汽车应该简单地掷骰子,以防止以数据为导向的歧视。
一般来说,此类窘境都是事后保留给警方或法官去调查和决断的。但在自动驾驶的情况下,选择将在几毫秒内完成,意味着几乎没有足够的时间来作出明智的决定。重要的不是我们所知道的,而是汽车所知道的。那么问题在于自动驾驶应该对周围的人占有什么信息?企业是否应被允许去适用不同的道德体系,以追求竞争优势?
请考虑以下情况:一辆中国车与美国车有不同的工厂设定标准,但假设这辆中国车正在美国行驶,并即将与一辆美国车发生不可避免的碰撞。倘若中国汽车驾驶员的道德偏好不同于美国汽车驾驶员,那么哪个系统应该占上风?
除了基于文化的道德偏好差异外,还必须考虑各国数据法规的差异。例如中国制造的汽车可能会获得社会评分数据,从而使其决策算法能够纳入美国汽车制造商所无法获取的额外输入。更丰富的数据可以带来更好、更一致的决策,但拥有这一优势是否就该允许一个系统去凌驾于另一个系统?
很显然,在自动驾驶车辆大规模上路之前,我们需要确定算法决策的责任究竟落在哪里,是市政当局、国家政府还是多边机构?更重要的是,我们需要新的框架来管理这个商业和国家的交叉点。
不难想象,所有自动驾驶车辆制造商都会简单地宣传自己那套系统会将驾驶员的生命置于首位,或是允许用户切换自身的道德设置。为了防止这种“公地悲剧”,必须建立在自动驾驶车辆决策之间进行通信和协调的框架。但是,在不同文化背景下开发此类系统时,政策制定者和企业将必须面对不同的主权、隐私和个人自治的文化概念。
这将引发额外的挑战,因为人工智能系统无法容忍歧义。从头开始设计人工智能应用程序需要非常明确;无论效果如何,这些系统只会按照你告诉它们的方式行事。这意味着企业、政府和其他提供商在编写针对不同情况的响应规则时,需要做出明确的抉择。
但在这一切发生之前,政策制定者们需要订立算法问责制的范围,以确定应该把哪些决策留给企业或个人(如有的话)。那些属于国家职权范围的责任,必须经由辩论商讨来决定。虽然无法拿出一个最终解决方案,但我們需要创建一些至少能促进自动驾驶车辆之间通信以及“裁决算法争议和道路事故”的系统。
鉴于在设计决策算法时需要明确性,因此有必要建立一个国际机构来制定标准。这种算法问责制的标准,必须能被应用于管理许多领域。最终,我们必须决定的首要问题是,企业是否有权为算法决策设计另一套道德框架。在我们看来,它们是不应该有的。
在这个人工智能时代,全球价值链的某些组成部分最终会实现自动化,此时它们将不再被视为企业追求竞争优势的领域。确定和裁决算法问责制的过程,应该就处于这样一个领域。无论以什么方式我们都将作出决定,而且最好是统一并尽可能民主地解决。
本文由Project Syndicate授权《南风窗》独家刊发中文版。马克·埃斯波斯托,霍特国际商学院和哈佛大学商业和经济学教授;谢慈铭,欧洲高等商学院伦敦分校教授;约书亚·恩特斯明格,Nexus FrontierTech研究员;奥德丽·让,In Silico Veritas药业公司创始人。