论文部分内容阅读
内容摘要:随着人工智能社会化进程的加快,关于人工智能法律定位的讨论热度居高不下。人工智能在现代法律体系中究竟应当成为“人”还是“物”,是人工智能享有法律权利的逻辑起点,关乎着人类和人工智能两大阵营的共生与博弈。人工智能发展的不同阶段呈现不同特点,在现有阶段赋予其人格权,无论在法律精神还是道德伦理方面均有些力不从心。针对人工智能现有的“人格化”特征,面对学界普遍存在的法律拟制观点,本文从算法与意识的区别入手,试图从私权性质、法律责任等多种角度,对人工智能的人格权问题进行分析探讨,并对法律拟制说进行质疑。
关键词:人工智能 人格权 法律拟制
引言
1956 年的特茅斯会议标志着"人工智能"学术概念的诞生,从此开辟了利用智能机器代替人类从事脑力劳动的新纪元。对于我们所处的人工智能时代,面对无法逆转的人工智能社会化趋势,我国《关于进一步加强社会主义法治建设的意见》中强调,我国应当加快人工智能与现行法律制度相结合;《国务院关于印发新一代人工智能发展规划》中更是将人工智能的立法进程分为三步走,提出到2020年部分领域的人工智能伦理规范和政策法规初步建立,到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力,到2030年,形成一批全球领先的人工智能科技创新和人才培养基地,建成更加完善的人工智能法律法规、伦理规范和政策体系。 2017年10月26日,沙特阿拉伯授予机器人“索菲亚”以公民身份,震惊世界的同时也不由得引人思考:人工智能究竟是产品还是人?人工智能是否应该被当做“人类”,赋予相应的权利和义务?人工智能一旦被列为法律主体,现有的法律体系该怎样融合与调整?人工智能的“人格”问题亟待解决。
一、人工智能发展现状
人工智能简称AI,是英文Artificial Intelligence的缩写,具有类似于人类的独立思考与深度学习的能力是人工智能与其他科技最大的差异 。随着科技的不断进步与各产业发展需求的双重作用下,人工智能逐渐体现出深度学习、跨界融合、人机协同、群智开放、自主操控等特征。当我们谈论人工智能时,很大程度上受到源自20 世纪想象的影响,例如,直接把人工智能和机器人联系起来,甚至是人形机器人 。但人工智能作为一个新兴事物,其产生和发展也会经历不同的阶段,呈现出不同的特点,随着科技研发与深度探索,其自我学习能力逐渐深入、智力实力逐渐提高。根据发展阶段的不同,人工智能可分为弱人工智能、强人工智能、超人工智能三类。就目前来讲,我们正处于从弱人工智能向强人工智能的过渡阶段,无论是人工智能在医疗、艺术、司法方面的运用发挥出多么令人惊异的力量,当前的人工智能主要根据收集和处理数据,以来设计者内置的半导体逻辑结构和设计的算法运行,从而达到设计者的目的。
20世纪40年代,科幻小说作家艾萨克·阿西莫夫就预言: 将来的社会必定需要制定严格的法律来限制机器人的行为 ,并提出“机器人三原则”,明确传递出一个思想,即无论是当今的弱人工智能还是日后的超人工智能,诞生的唯一原因是为人类服务,其天生的工具性决定了利他主义本质,在创造之初便已将“人类利益至高无上”写入命运之中。相较于人类社会利他主义带来的成本与收益的偏颇结果,利他主义恰恰成为人工智能生存发展的重要依凭,人工智能可以源源不断高效率贡献人类所需要的产品与服务,通过运作创收可观的财富,创造出远超研发成本的收益,而作为人工智能的设计者,只需要在发明之后提供很少的保养就够了。
二、人工算法与人类意识的区分
正因人工智能种种区别于普通科技而与人类相似的特征,很多人将人工智能的自我学习能力视为机器人的意识。在人工智能高度发达的时代,权利意识将觉醒于机器人体内 。近年来有关人工智能造成的一些事故似乎也在印证,人工智能即将从金属躯壳中孕育出独立意识。2017年7月,位于华盛顿特区一个办公楼的安保机器人突然自动掉入喷水池中,设计者坚持认为该款机器人安装有强大的摄像头与监测系统,能够应对复杂环境,对于该事件,美国各大新闻网站采用了一个颇具人格化的词语加以形容:“机器人自杀”。排除新闻噱头的动机,不难发现人类在见证机器人高度智能化时,对其是否“意识觉醒”有着强烈关注与偏向,但这偏向并非期待人类可以创造出与自己相似的、具有独立意识的伙伴,而是透出一丝隐忧,一个高智商高效率、容错率低、近乎无需休息成本和生活成本的同类是否要取代人类的地位,将人类赖以生存的工作岗位蚕食殆尽,甚至发生电影里人类被机器人灭绝的悲惨命运,关乎人类的命途发展和生死存亡。
单从“意识”的词义解释来看,意识是人脑对于客观物质世界的反映,是感觉、思维等各种心理过程的总和。对于意识的生成与传递,生物学家、心理学家和哲学家代代为之付出不懈研究,得出诸多不同结论,而认同的一点在于人类的意识来源于进化中的“天赋”。进化根据客观环境变换赋予意识更丰富的内容,而意识又引导进化走向更有利于人类生存发展的方向。“天赋”的意识如何适配于“人造”的人工智能?不妨从人类和动物的脱离开始谈起。基于趋利避害的本能,远古的智人与鬣狗、灰兔一样,面对天敌都可以发出“当心”的信号,然而在认知革命之后,智人就能够说出:“狮子是我们的守护神。”“讨论虚构的事物”是智人语言最独特的功能 。反观人类智能,在设计者设计的算法之下,人工智能的确可以在超越人类感官的边界快速做出相对应的反应,但得出的所有结果归功于金属外壳之下包裹的数据与代码的缜密运行。基于不可违抗人类的本性,人工智能永远不可能创造出一个新的形象去敬仰忠誠,因为人类创造它、维护它、为它设定存在的意义,人类就是它唯一的信仰。
三、人工智能的人格权否定
(一)私人权利与利他主义的冲突
人格权是指以主体固有的人格利益为客体,以维护和实现人格平等、人格尊严、人身自由为目标的权利。人格权具有控制、利用和处分三种权能,即仅凭自己的意识保有、支配、利用或通过法律行为将部分人格利益转让给他人。不能否认,人工智能作为一个独立的个体,它应当拥有出于自身的突出表现而获得的名誉利益、姓名与肖像不受侵犯的利益(且不论究竟属于作为作品的著作权利益还是作为主体的人格权利益),但由前述论证可以得知,人工智能的利他主义本性注定其不会具有和人类一样的意志,更谈不上凭自己的意识对人格利益进行全面的支配。倘若人工智能可以自主决定将自己的姓名或肖像使用收益权授权给其他人类或人工智能,将所得利益收入囊中,用以享乐或保养机身,且不说这种授权行为是否具有法律上的效力,单从行为而言本身就违背了人工智能被设计出来的初衷,也不符合阿西莫夫的原则之二:必须遵守人类给他施加的规则。在人格权方面,人工智能与婴儿也不甚相同,婴儿由于生理原因无法在出生便对人格利益进行有效控制,但他与生俱来的人格权实际是交由父母即他的法定监护人代为行使,随着年龄的增长,人格权将悉数回归于他自身;而人工智能自创作伊始便是一个成熟的个体,在某些领域的能力远超普通人类,无论如何成长也无法摆脱人类控制这一至高法则。若只为给人工智能一个身份而将其强行视为高智商的被监护人,不啻为一种舍本逐末的牵强之举。 (二)人工智能无法成为法律责任主体
法律责任作为救济权利的后果,是对权利顺利实现的法律保证。民法中关于人格权的法律责任规定了如下几种方式:停止侵害、排除妨碍、消除危险、消除影响、恢复名誉、精神损害赔偿、财产损害赔偿、赔礼道歉。人工智能不同于法人企业,它不可能拥有自己独立的财产,也不可能以自己的身份为道歉与赔偿而发声,人工智能的侵权行为一经出现,在机器人可控的范围内,法官将直接揭开侵权行为的面纱对背后的设计者进行问责,通过对人工智能信息数据输入输出过程中的问题因果关系的界定来分别对相关责任人进行追责,承担财产或精神损害的赔偿责任;一旦人工智能的行为不再可控,人类将采用毁之灭之的方式制止侵权行为,甚至会销毁尚未流露出失控倾向的、同批次的人工智能,在此种情况下,人工智能的人格利益也不可能与人类的人格利益等量齐观。机器人更像是设计者饲养的大型寵物,只是比动物的纯生理行为更加符合人类逻辑罢了。由此可见,在现有的民法理论中无法赋予机器人以主体资格,赋予其法律人格是多余的,因为最终承担责任的始终都是人 。
四、法律拟制人格权的法律风险
目前,世界各国都在为赋予人工智能的身份定位而创新思索,在机器人的权利主体地位上,欧盟议会法律事务委员会(JURI)已于2017年就人工智能提出了立法提案,拟采用“拟制电子人”的方式,赋予人工智能法律主体地位。这似乎为我们提供了一种思路,既然人工智能无法像人类一样控制支配人格利益,尝试赋予它拟制的人格权与身份。国内有一些学者的观点与这种拟制创新不谋而和,很多学者通过论证历史上黑人、女人的权利赋予、权利主体的扩大化趋势,给人工智能人格权的法律拟制以合理化解释,例如刘振宇博士曾提出,“一旦法律将人工智能作为一个法律拟制的、具有法律意义的主体,那么,人工智能就必然应当拥有法定权利; 与之相应,一旦法律赋予人工智能法定权利,那么,人工智能便具有了一定程度的法律人格。 ”
上述构想确实为人工智能的立法方向提供一个看似可行的思路,然而究其内容,却犯了法律逻辑上的错误。在理论上,法律规范可以拟制出任一先前本不存在的主体及其权利,只要这一规范获得了立法程序的通过,但法律拟制的前提是这个主体与现有主体具有相似的、可通过立法加以规制的特征,而非为了赋予法律主体地位而先行拟制,再用法律拟制证明其确实具有法律主体的特点,这就不免有些循环证明的嫌疑。法律拟制的最好范例便是法人的设置,将一个有机的人类集合体统观为“人”,其基本特征在于法人具有与人相似的独立财产与意志,能够承担责任,而反观人工智能,这却是它无法实现的核心要求。此处差距的意义可以用人工智能中的“莫拉维克悖论”加以解释:要让电脑如成人般地下棋是相对容易的,但是要让电脑尤如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的 。同样,赋予人工智能一定的人格利益是相对容易的,但是要让人工智能具有生命健康的概念、利用自己的财产、凭借自己的意识从事人类行为,并承担相应法律责任,也是相当困难甚至不可能的。为了将人工智能纳入法律保护,不惜将人格权中最重要的生命权进行改写,重塑几千年来与时俱进但初心不改的人格权体系,不免有些小题大做。当我们探讨人工智能与法律体系融合的问题时,不仅要正视法律实践层面可能出现的问题和困境,更不能回避法律层面赋予人工智能人格权所带来的伦理层面的巨大的不确定性风险。
五、结论
随着人工智能技术的继续深入发展,人工智能的法律适配性将成为学界不得不面对、讨论与解决的问题。就目前的发展程度来看,弱人工智能尚且具有明显的工具性色彩,现有的法律框架可以在知识产权与侵权法领域加以调整囊括,现在开始担忧人工智能具有类似人类的人格意识便仓促改变原本的法律体系,未免杞人忧天,毕竟权利的赋予不仅在于社会公众的普遍认可,更重要的是保证法律系统能够继续适用于人类社会。在人工智能与法律的磨合传出阵痛之前,道德、伦理也会出于人类的敏感神经先行做出回应。也许等到强人工智能甚至超人工智能社会化的那天,我们会掌握更多的实证与依据,在法律的实然性和应然性层面,做出更为科学严谨的判断。
【参考文献】
[1]沈宗灵:《法理学》第四版,北京大学出版社。
[2] 王利明:《民法》第七版,中国人民大学出版社。
[3] 尤瓦尔·赫拉利:《人类简史:从动物到上帝》,林俊宏译,中信出版社。
[4]褚清清:《人工智能法律主体地位问题研究—基于权利、权力角度分析》,《未来与发展》,2019年第9期。
[5] 刘振宇:《人工智能权利话语批判》,《自然辩证法研究》,2018年8月第8期。
[6] 杨学科:《论人工智能机器人权利及其权利界限》,《天府新论》2019年第1期。
[7] 袁曾:《权利视阈下的人工智能法律主体地位》,《上海政法学院学报》2019年第4期。
[8]张媛媛,王前,赵永飞:《人工智能相关法律问题的比较分析与展望》,《长沙理工大学学报》,2019年9月第9期。
作者简介:田悦,(1996-),女,河北承德人,天津师范大学法学院经济法学研究生。
关键词:人工智能 人格权 法律拟制
引言
1956 年的特茅斯会议标志着"人工智能"学术概念的诞生,从此开辟了利用智能机器代替人类从事脑力劳动的新纪元。对于我们所处的人工智能时代,面对无法逆转的人工智能社会化趋势,我国《关于进一步加强社会主义法治建设的意见》中强调,我国应当加快人工智能与现行法律制度相结合;《国务院关于印发新一代人工智能发展规划》中更是将人工智能的立法进程分为三步走,提出到2020年部分领域的人工智能伦理规范和政策法规初步建立,到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力,到2030年,形成一批全球领先的人工智能科技创新和人才培养基地,建成更加完善的人工智能法律法规、伦理规范和政策体系。 2017年10月26日,沙特阿拉伯授予机器人“索菲亚”以公民身份,震惊世界的同时也不由得引人思考:人工智能究竟是产品还是人?人工智能是否应该被当做“人类”,赋予相应的权利和义务?人工智能一旦被列为法律主体,现有的法律体系该怎样融合与调整?人工智能的“人格”问题亟待解决。
一、人工智能发展现状
人工智能简称AI,是英文Artificial Intelligence的缩写,具有类似于人类的独立思考与深度学习的能力是人工智能与其他科技最大的差异 。随着科技的不断进步与各产业发展需求的双重作用下,人工智能逐渐体现出深度学习、跨界融合、人机协同、群智开放、自主操控等特征。当我们谈论人工智能时,很大程度上受到源自20 世纪想象的影响,例如,直接把人工智能和机器人联系起来,甚至是人形机器人 。但人工智能作为一个新兴事物,其产生和发展也会经历不同的阶段,呈现出不同的特点,随着科技研发与深度探索,其自我学习能力逐渐深入、智力实力逐渐提高。根据发展阶段的不同,人工智能可分为弱人工智能、强人工智能、超人工智能三类。就目前来讲,我们正处于从弱人工智能向强人工智能的过渡阶段,无论是人工智能在医疗、艺术、司法方面的运用发挥出多么令人惊异的力量,当前的人工智能主要根据收集和处理数据,以来设计者内置的半导体逻辑结构和设计的算法运行,从而达到设计者的目的。
20世纪40年代,科幻小说作家艾萨克·阿西莫夫就预言: 将来的社会必定需要制定严格的法律来限制机器人的行为 ,并提出“机器人三原则”,明确传递出一个思想,即无论是当今的弱人工智能还是日后的超人工智能,诞生的唯一原因是为人类服务,其天生的工具性决定了利他主义本质,在创造之初便已将“人类利益至高无上”写入命运之中。相较于人类社会利他主义带来的成本与收益的偏颇结果,利他主义恰恰成为人工智能生存发展的重要依凭,人工智能可以源源不断高效率贡献人类所需要的产品与服务,通过运作创收可观的财富,创造出远超研发成本的收益,而作为人工智能的设计者,只需要在发明之后提供很少的保养就够了。
二、人工算法与人类意识的区分
正因人工智能种种区别于普通科技而与人类相似的特征,很多人将人工智能的自我学习能力视为机器人的意识。在人工智能高度发达的时代,权利意识将觉醒于机器人体内 。近年来有关人工智能造成的一些事故似乎也在印证,人工智能即将从金属躯壳中孕育出独立意识。2017年7月,位于华盛顿特区一个办公楼的安保机器人突然自动掉入喷水池中,设计者坚持认为该款机器人安装有强大的摄像头与监测系统,能够应对复杂环境,对于该事件,美国各大新闻网站采用了一个颇具人格化的词语加以形容:“机器人自杀”。排除新闻噱头的动机,不难发现人类在见证机器人高度智能化时,对其是否“意识觉醒”有着强烈关注与偏向,但这偏向并非期待人类可以创造出与自己相似的、具有独立意识的伙伴,而是透出一丝隐忧,一个高智商高效率、容错率低、近乎无需休息成本和生活成本的同类是否要取代人类的地位,将人类赖以生存的工作岗位蚕食殆尽,甚至发生电影里人类被机器人灭绝的悲惨命运,关乎人类的命途发展和生死存亡。
单从“意识”的词义解释来看,意识是人脑对于客观物质世界的反映,是感觉、思维等各种心理过程的总和。对于意识的生成与传递,生物学家、心理学家和哲学家代代为之付出不懈研究,得出诸多不同结论,而认同的一点在于人类的意识来源于进化中的“天赋”。进化根据客观环境变换赋予意识更丰富的内容,而意识又引导进化走向更有利于人类生存发展的方向。“天赋”的意识如何适配于“人造”的人工智能?不妨从人类和动物的脱离开始谈起。基于趋利避害的本能,远古的智人与鬣狗、灰兔一样,面对天敌都可以发出“当心”的信号,然而在认知革命之后,智人就能够说出:“狮子是我们的守护神。”“讨论虚构的事物”是智人语言最独特的功能 。反观人类智能,在设计者设计的算法之下,人工智能的确可以在超越人类感官的边界快速做出相对应的反应,但得出的所有结果归功于金属外壳之下包裹的数据与代码的缜密运行。基于不可违抗人类的本性,人工智能永远不可能创造出一个新的形象去敬仰忠誠,因为人类创造它、维护它、为它设定存在的意义,人类就是它唯一的信仰。
三、人工智能的人格权否定
(一)私人权利与利他主义的冲突
人格权是指以主体固有的人格利益为客体,以维护和实现人格平等、人格尊严、人身自由为目标的权利。人格权具有控制、利用和处分三种权能,即仅凭自己的意识保有、支配、利用或通过法律行为将部分人格利益转让给他人。不能否认,人工智能作为一个独立的个体,它应当拥有出于自身的突出表现而获得的名誉利益、姓名与肖像不受侵犯的利益(且不论究竟属于作为作品的著作权利益还是作为主体的人格权利益),但由前述论证可以得知,人工智能的利他主义本性注定其不会具有和人类一样的意志,更谈不上凭自己的意识对人格利益进行全面的支配。倘若人工智能可以自主决定将自己的姓名或肖像使用收益权授权给其他人类或人工智能,将所得利益收入囊中,用以享乐或保养机身,且不说这种授权行为是否具有法律上的效力,单从行为而言本身就违背了人工智能被设计出来的初衷,也不符合阿西莫夫的原则之二:必须遵守人类给他施加的规则。在人格权方面,人工智能与婴儿也不甚相同,婴儿由于生理原因无法在出生便对人格利益进行有效控制,但他与生俱来的人格权实际是交由父母即他的法定监护人代为行使,随着年龄的增长,人格权将悉数回归于他自身;而人工智能自创作伊始便是一个成熟的个体,在某些领域的能力远超普通人类,无论如何成长也无法摆脱人类控制这一至高法则。若只为给人工智能一个身份而将其强行视为高智商的被监护人,不啻为一种舍本逐末的牵强之举。 (二)人工智能无法成为法律责任主体
法律责任作为救济权利的后果,是对权利顺利实现的法律保证。民法中关于人格权的法律责任规定了如下几种方式:停止侵害、排除妨碍、消除危险、消除影响、恢复名誉、精神损害赔偿、财产损害赔偿、赔礼道歉。人工智能不同于法人企业,它不可能拥有自己独立的财产,也不可能以自己的身份为道歉与赔偿而发声,人工智能的侵权行为一经出现,在机器人可控的范围内,法官将直接揭开侵权行为的面纱对背后的设计者进行问责,通过对人工智能信息数据输入输出过程中的问题因果关系的界定来分别对相关责任人进行追责,承担财产或精神损害的赔偿责任;一旦人工智能的行为不再可控,人类将采用毁之灭之的方式制止侵权行为,甚至会销毁尚未流露出失控倾向的、同批次的人工智能,在此种情况下,人工智能的人格利益也不可能与人类的人格利益等量齐观。机器人更像是设计者饲养的大型寵物,只是比动物的纯生理行为更加符合人类逻辑罢了。由此可见,在现有的民法理论中无法赋予机器人以主体资格,赋予其法律人格是多余的,因为最终承担责任的始终都是人 。
四、法律拟制人格权的法律风险
目前,世界各国都在为赋予人工智能的身份定位而创新思索,在机器人的权利主体地位上,欧盟议会法律事务委员会(JURI)已于2017年就人工智能提出了立法提案,拟采用“拟制电子人”的方式,赋予人工智能法律主体地位。这似乎为我们提供了一种思路,既然人工智能无法像人类一样控制支配人格利益,尝试赋予它拟制的人格权与身份。国内有一些学者的观点与这种拟制创新不谋而和,很多学者通过论证历史上黑人、女人的权利赋予、权利主体的扩大化趋势,给人工智能人格权的法律拟制以合理化解释,例如刘振宇博士曾提出,“一旦法律将人工智能作为一个法律拟制的、具有法律意义的主体,那么,人工智能就必然应当拥有法定权利; 与之相应,一旦法律赋予人工智能法定权利,那么,人工智能便具有了一定程度的法律人格。 ”
上述构想确实为人工智能的立法方向提供一个看似可行的思路,然而究其内容,却犯了法律逻辑上的错误。在理论上,法律规范可以拟制出任一先前本不存在的主体及其权利,只要这一规范获得了立法程序的通过,但法律拟制的前提是这个主体与现有主体具有相似的、可通过立法加以规制的特征,而非为了赋予法律主体地位而先行拟制,再用法律拟制证明其确实具有法律主体的特点,这就不免有些循环证明的嫌疑。法律拟制的最好范例便是法人的设置,将一个有机的人类集合体统观为“人”,其基本特征在于法人具有与人相似的独立财产与意志,能够承担责任,而反观人工智能,这却是它无法实现的核心要求。此处差距的意义可以用人工智能中的“莫拉维克悖论”加以解释:要让电脑如成人般地下棋是相对容易的,但是要让电脑尤如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的 。同样,赋予人工智能一定的人格利益是相对容易的,但是要让人工智能具有生命健康的概念、利用自己的财产、凭借自己的意识从事人类行为,并承担相应法律责任,也是相当困难甚至不可能的。为了将人工智能纳入法律保护,不惜将人格权中最重要的生命权进行改写,重塑几千年来与时俱进但初心不改的人格权体系,不免有些小题大做。当我们探讨人工智能与法律体系融合的问题时,不仅要正视法律实践层面可能出现的问题和困境,更不能回避法律层面赋予人工智能人格权所带来的伦理层面的巨大的不确定性风险。
五、结论
随着人工智能技术的继续深入发展,人工智能的法律适配性将成为学界不得不面对、讨论与解决的问题。就目前的发展程度来看,弱人工智能尚且具有明显的工具性色彩,现有的法律框架可以在知识产权与侵权法领域加以调整囊括,现在开始担忧人工智能具有类似人类的人格意识便仓促改变原本的法律体系,未免杞人忧天,毕竟权利的赋予不仅在于社会公众的普遍认可,更重要的是保证法律系统能够继续适用于人类社会。在人工智能与法律的磨合传出阵痛之前,道德、伦理也会出于人类的敏感神经先行做出回应。也许等到强人工智能甚至超人工智能社会化的那天,我们会掌握更多的实证与依据,在法律的实然性和应然性层面,做出更为科学严谨的判断。
【参考文献】
[1]沈宗灵:《法理学》第四版,北京大学出版社。
[2] 王利明:《民法》第七版,中国人民大学出版社。
[3] 尤瓦尔·赫拉利:《人类简史:从动物到上帝》,林俊宏译,中信出版社。
[4]褚清清:《人工智能法律主体地位问题研究—基于权利、权力角度分析》,《未来与发展》,2019年第9期。
[5] 刘振宇:《人工智能权利话语批判》,《自然辩证法研究》,2018年8月第8期。
[6] 杨学科:《论人工智能机器人权利及其权利界限》,《天府新论》2019年第1期。
[7] 袁曾:《权利视阈下的人工智能法律主体地位》,《上海政法学院学报》2019年第4期。
[8]张媛媛,王前,赵永飞:《人工智能相关法律问题的比较分析与展望》,《长沙理工大学学报》,2019年9月第9期。
作者简介:田悦,(1996-),女,河北承德人,天津师范大学法学院经济法学研究生。