论文部分内容阅读
人工智能时代,声音作为人的生物学特征之一,其重要性与日俱增。一旦声音被滥用或者被篡改,可能引发严重的后果。因此,人工智能时代对人声音的保护具有现实紧迫性,应该将声音权确立为一种独立的人格权纳入民法权利体系。基于人工智能侵权的特性,应为声音权提供事前和事后的有效保护路径,促进人工智能语音产业健康发展。
人工智能的界定
当前对人工智能的认定没有统一的说法。逻辑学派认为,人工智能源自能够拓展人脑功能和帮助人脑正确高效思考的数学逻辑,是被算法符号操纵的智能行为。仿生学派主张,人工智能类似于仿生学原理,机器内部相互连接的神经元之间的竞争合作影响着人工智能行为。控制论学派所持观点是,人工智能源自以反馈为基础的控制论,是编程和算法符号等运作的反馈结果,可将人工智能大概界定为一门研究、开发用于模拟和拓展人类行为的新兴科技。人工智能是一个泛称,具体可细化为机器人技术、语言识别、图像识别、专家系统和自然语言处理等。本文主要是针对人工智能语音识别方面进行探讨和分析。
声音的精神价值和财产价值凸显
名人的声音被盗用在日常生活中最为可见,商家滥用名人效应,未经许可通过人工智能模仿声音来进行音乐制作、电话推销甚至是骚扰。恶意剪辑、合成权利人声音并肆意传播等现象频发,严重损害了个人的人格尊严。更严重的是,如果人工智能学习了人类的语音密码,可能会参与欺诈并直接损害权利人的财产。
例如通过对人类语音进行分析,破解银行卡密码或者家庭门密码,人工智能可能将在潜移默化中控制自然人的个人财产和空间。通过模仿自然人的声音并利用它向亲戚和朋友借钱,这种类型的骗局也是因为自然人声音权利的保护不到位而获得成功。
司法实践需求的回应
毋庸置疑,声音权利是自然人的一种合法权益,但在司法实践中,声音权的救济一般是通过引用一般人格权的相关法律规定或者与其他具体人格权相竞争来获得保护的资格,没有系统、完备的保护路径。
在发生声音侵权之后,侵权主体的认定是实践中的一个疑难点。首先,人工智能的语音收集器、处理器和传播用户端可能不是同一个,声音的利用和传播往往是经过了三个以上的环节,在每个环节中的主体是否有权利用上一环节的声音信息,以及是否同意授权许可给下一环节的主体都无法考证。其次,人工智能语音侵权主体的明确和侵权责任的分配愈加困难。即使我们处在强大的人工智能时代,人们也可以在法庭上与人工智能争辩吗?最后,当侵权发生后,很难消除损害的后果。
在人工智能时代,当自然人的语音信息遭到破坏并发布到网络上时,删除信息并支付经济赔偿并不能完全阻止损害,因为很难完全抹除网络上残留的数据和信息。人们可以用不同的方式存储它,将其反复传播给不同的用户,并继续伤害权利人。
一般人格权不能准确界定声音权
一般人格权是指“民事主体享有的,概括人格平等、人格独立、人格自由、人格尊严全部内容的一般人格利益,并由此产生和规定具体人格权的基本权利。”作为人生物学特征之一,人的声音是一种特征性的识别符号,基于此产生的声音权是一种标表型人格权。声音权作为具体人格权保护的是特定的自然人声音内容,而一般人格权的规定大多是兜底性的、概括性的。在人工智能时代,声音权被侵犯的情形多样,用一般人格权的内容对声音权进行保护,不足以体现声音权的特殊性,无法对声音权进行针对性、充分和系统的保护。
现有具体人格权无法覆盖声音权
一方面,声音权不能被肖像权完全概括。声音权的权利对象是声音权益,肖像权的权利对象是肖像权益,将两者融合或将其一扩大以覆盖另一项权利很容易导致法律逻辑混乱;另一方面,声音权不应被隐私权所涵盖。声音权与隐私权密切相关,在许多外国法律中,声音权通过隐私权相关内容被保护。如《加拿大魁北克省民法典》第36条规定,除了合理公开,使用他人的声音均构成侵害隐私权。但我国的隐私权所涉及范围没有英美法宽泛,主要是指公民不愿向外公开的秘密,而自然人无法做到声音不被外界知晓,因此我国隐私权无法涵盖声音权。
人工智能的發展推动声音权的完善
科学技术对法律的发展具有推动作用,可以分为三个方面:
第一,科技的发展对法律不断提出了新的问题,丰富与改变立法。人工智能语音产业的发展会催生侵权责任认定等一系列的法律问题,需要法律的规制。
第二,科学技术大大丰富了法律的内容。科学技术改变了人类的生活方式和社会组织,形成了许多新的社会关系,由此催生了许多新的社会规范。
第三,科学技术导致法律内容的更新。如人工智能的发展将导致法律明确声音侵权责任是归于人工智能所有者还是管理者。人工智能不仅改变社会,还对法律制度产生了巨大影响。人工智能语音技术的发展带来了一系列难题,而明确对声音权的民法保护就是当前的积极应对措施,这将为未来的司法实践获得主动权。
面对人工智能发展浪潮,法律规则在促进创新与监管中须找到平衡点,才能既最大发挥人工智能给人类带来的福祉,又能维护自然人的合法权利。
人工智能侵权行为的特征
首先,人工智能侵权较强的自主性。人工智能工作时,会向内部的算法提供一定的数据,进而利于算法根据来自数据的学习结果创建规则,即机器学习模型。其次,人工智能侵权较低的预测性。由于人工智能具有学习和适应能力,因此人工智能会有以不可测的方法来工作的情形,无法被人类准确预测。最后,人工智能侵权较低的可解释性。
侵权行为发生之后,与原被告双方举证质证、厘清侵权行为的因果关系、考虑免责事由等传统的解决方案不同,人工智能一般会有一个能做出决策的黑匣子,而这黑匣子是人类无法完全控制的。而机器学习模型无法始终在计算和学习过程中进行解释,即使算法是对外透明的,但根据算法产生的模型也不一定是透明的,因此设计人员无法完全理解它们,也无法完全理解人工智能如何做出决策。 事前预防:声音数据控制权的平衡
大多情形下,用户用手机进行语音交流或者将个人配音发布于互联网上。用户似乎在积极地管理他们的语音信息,实际上,当用户在单击“发送”后,服务商就掌握了全部声音信息。一旦用户语音信息被发布到互联网上,用户将失去对声音的下一个演变控制。即使个人删除了该信息,原始信息仍残留于服务器中,并且用户无法控制其他人以任何其他方式存储和传播该原始信息。为了避免这种情况,网络服务商应当将控制权转让给用户。
例如,用户有权彻底删除服务器上的所有个人声音数据,或者他人使用服务器上的声音信息之前必须经过用户的许可。服务提供商也要接受行业法规监督,应将注意的事项和风险主动告知用户,以此平衡声音数据控制权,达到事前预防声音受侵犯的目的。
事后救济:明确人工智能致人损害的侵权责任主体
随着人工智能语音技术的普及,由人工智能引起的侵权责任的识别将对当前的侵权法律制度构成越来越多的挑战。当前,学术界的主流观点是,不需赋予以人工智能为中心的合法地位,而是应当让人工智能所有权享有者承担无过错责任。但是,人工智能的特殊性使某些侵权行为受算法掌控,因此人工智能所有权享有者是否应当承担无过错责任仍需要进一步的考量。
1.风险管理原则
风险管理原则指,当人工智能的某些行为具有危险并且可能危害他人的人身和财产安全时,风险管理者要承担风险以确保他人安全。当风险管理者满足对人工智能侵权的危险有所了解和必须具有管理风险的技术能力这两个条件时,应承担人工智能侵权责任。
2.危险释放原则
根据风险释放的原则,危险的发生是社会发展的必然结果,危险本身是被法律允许的,因此如果危险活动的产生具有意外性或偶然性,则发起危险的人不需承担法律责任。但是,在活动过程中,如果有关人员疏忽大意,并且人工智能的使用不在合理和合法的范围内,则从事危险活动的人员将承担责任,并且必须承担责任。
3.补偿原则
根据补偿原则,每个民事主体都有权利获得自己“应得的东西”,而“应得的东西”既包括正面的利益,也包括负面的罚则。该原则在人工智能领域,即民事主体使用人工智能,在享人工智能带来的收益等好处时,也应承担因人工智能给他人带来损失的风险。
[本文系基金項目:江苏大学2020年大学生实践创新训练计划项目(项目编号:202010299589X)的研究成果。]
(江苏大学)
参考文献:
[1]杨立新.人格权法专论[M].北京:高等教育出版社,2005.
[2]周永坤.法理学[M].北京:法律出版社,2016.
[3]杨立新,袁雪石.论声音权的独立及其民法保护[J].法商研究,2005(04):103-109.
[4]王利明.论人格权独立成编的理由[J].法学评论, 2017 (6).
[5]李涛.论声音权在人格权编中的确立[J].三峡大学学报(人文社会科学版),2019,41(03):92-96.
[6]王利明,杨立新.民法学(第3版),法律出版社,2011(01).
[7] 袁雪石译.魁北克省民法典人格权部分节译.载杨立新主编.民商法前沿(第2辑)[C]法律出版社,2004.262.
人工智能时代声音权保护的必要性
人工智能的界定
当前对人工智能的认定没有统一的说法。逻辑学派认为,人工智能源自能够拓展人脑功能和帮助人脑正确高效思考的数学逻辑,是被算法符号操纵的智能行为。仿生学派主张,人工智能类似于仿生学原理,机器内部相互连接的神经元之间的竞争合作影响着人工智能行为。控制论学派所持观点是,人工智能源自以反馈为基础的控制论,是编程和算法符号等运作的反馈结果,可将人工智能大概界定为一门研究、开发用于模拟和拓展人类行为的新兴科技。人工智能是一个泛称,具体可细化为机器人技术、语言识别、图像识别、专家系统和自然语言处理等。本文主要是针对人工智能语音识别方面进行探讨和分析。
声音的精神价值和财产价值凸显
名人的声音被盗用在日常生活中最为可见,商家滥用名人效应,未经许可通过人工智能模仿声音来进行音乐制作、电话推销甚至是骚扰。恶意剪辑、合成权利人声音并肆意传播等现象频发,严重损害了个人的人格尊严。更严重的是,如果人工智能学习了人类的语音密码,可能会参与欺诈并直接损害权利人的财产。
例如通过对人类语音进行分析,破解银行卡密码或者家庭门密码,人工智能可能将在潜移默化中控制自然人的个人财产和空间。通过模仿自然人的声音并利用它向亲戚和朋友借钱,这种类型的骗局也是因为自然人声音权利的保护不到位而获得成功。
司法实践需求的回应
毋庸置疑,声音权利是自然人的一种合法权益,但在司法实践中,声音权的救济一般是通过引用一般人格权的相关法律规定或者与其他具体人格权相竞争来获得保护的资格,没有系统、完备的保护路径。
在发生声音侵权之后,侵权主体的认定是实践中的一个疑难点。首先,人工智能的语音收集器、处理器和传播用户端可能不是同一个,声音的利用和传播往往是经过了三个以上的环节,在每个环节中的主体是否有权利用上一环节的声音信息,以及是否同意授权许可给下一环节的主体都无法考证。其次,人工智能语音侵权主体的明确和侵权责任的分配愈加困难。即使我们处在强大的人工智能时代,人们也可以在法庭上与人工智能争辩吗?最后,当侵权发生后,很难消除损害的后果。
在人工智能时代,当自然人的语音信息遭到破坏并发布到网络上时,删除信息并支付经济赔偿并不能完全阻止损害,因为很难完全抹除网络上残留的数据和信息。人们可以用不同的方式存储它,将其反复传播给不同的用户,并继续伤害权利人。
人工智能时代声音权保护的法理基础
一般人格权不能准确界定声音权
一般人格权是指“民事主体享有的,概括人格平等、人格独立、人格自由、人格尊严全部内容的一般人格利益,并由此产生和规定具体人格权的基本权利。”作为人生物学特征之一,人的声音是一种特征性的识别符号,基于此产生的声音权是一种标表型人格权。声音权作为具体人格权保护的是特定的自然人声音内容,而一般人格权的规定大多是兜底性的、概括性的。在人工智能时代,声音权被侵犯的情形多样,用一般人格权的内容对声音权进行保护,不足以体现声音权的特殊性,无法对声音权进行针对性、充分和系统的保护。
现有具体人格权无法覆盖声音权
一方面,声音权不能被肖像权完全概括。声音权的权利对象是声音权益,肖像权的权利对象是肖像权益,将两者融合或将其一扩大以覆盖另一项权利很容易导致法律逻辑混乱;另一方面,声音权不应被隐私权所涵盖。声音权与隐私权密切相关,在许多外国法律中,声音权通过隐私权相关内容被保护。如《加拿大魁北克省民法典》第36条规定,除了合理公开,使用他人的声音均构成侵害隐私权。但我国的隐私权所涉及范围没有英美法宽泛,主要是指公民不愿向外公开的秘密,而自然人无法做到声音不被外界知晓,因此我国隐私权无法涵盖声音权。
人工智能的發展推动声音权的完善
科学技术对法律的发展具有推动作用,可以分为三个方面:
第一,科技的发展对法律不断提出了新的问题,丰富与改变立法。人工智能语音产业的发展会催生侵权责任认定等一系列的法律问题,需要法律的规制。
第二,科学技术大大丰富了法律的内容。科学技术改变了人类的生活方式和社会组织,形成了许多新的社会关系,由此催生了许多新的社会规范。
第三,科学技术导致法律内容的更新。如人工智能的发展将导致法律明确声音侵权责任是归于人工智能所有者还是管理者。人工智能不仅改变社会,还对法律制度产生了巨大影响。人工智能语音技术的发展带来了一系列难题,而明确对声音权的民法保护就是当前的积极应对措施,这将为未来的司法实践获得主动权。
人工智能时代声音权的民法保护路径
面对人工智能发展浪潮,法律规则在促进创新与监管中须找到平衡点,才能既最大发挥人工智能给人类带来的福祉,又能维护自然人的合法权利。
人工智能侵权行为的特征
首先,人工智能侵权较强的自主性。人工智能工作时,会向内部的算法提供一定的数据,进而利于算法根据来自数据的学习结果创建规则,即机器学习模型。其次,人工智能侵权较低的预测性。由于人工智能具有学习和适应能力,因此人工智能会有以不可测的方法来工作的情形,无法被人类准确预测。最后,人工智能侵权较低的可解释性。
侵权行为发生之后,与原被告双方举证质证、厘清侵权行为的因果关系、考虑免责事由等传统的解决方案不同,人工智能一般会有一个能做出决策的黑匣子,而这黑匣子是人类无法完全控制的。而机器学习模型无法始终在计算和学习过程中进行解释,即使算法是对外透明的,但根据算法产生的模型也不一定是透明的,因此设计人员无法完全理解它们,也无法完全理解人工智能如何做出决策。 事前预防:声音数据控制权的平衡
大多情形下,用户用手机进行语音交流或者将个人配音发布于互联网上。用户似乎在积极地管理他们的语音信息,实际上,当用户在单击“发送”后,服务商就掌握了全部声音信息。一旦用户语音信息被发布到互联网上,用户将失去对声音的下一个演变控制。即使个人删除了该信息,原始信息仍残留于服务器中,并且用户无法控制其他人以任何其他方式存储和传播该原始信息。为了避免这种情况,网络服务商应当将控制权转让给用户。
例如,用户有权彻底删除服务器上的所有个人声音数据,或者他人使用服务器上的声音信息之前必须经过用户的许可。服务提供商也要接受行业法规监督,应将注意的事项和风险主动告知用户,以此平衡声音数据控制权,达到事前预防声音受侵犯的目的。
事后救济:明确人工智能致人损害的侵权责任主体
随着人工智能语音技术的普及,由人工智能引起的侵权责任的识别将对当前的侵权法律制度构成越来越多的挑战。当前,学术界的主流观点是,不需赋予以人工智能为中心的合法地位,而是应当让人工智能所有权享有者承担无过错责任。但是,人工智能的特殊性使某些侵权行为受算法掌控,因此人工智能所有权享有者是否应当承担无过错责任仍需要进一步的考量。
1.风险管理原则
风险管理原则指,当人工智能的某些行为具有危险并且可能危害他人的人身和财产安全时,风险管理者要承担风险以确保他人安全。当风险管理者满足对人工智能侵权的危险有所了解和必须具有管理风险的技术能力这两个条件时,应承担人工智能侵权责任。
2.危险释放原则
根据风险释放的原则,危险的发生是社会发展的必然结果,危险本身是被法律允许的,因此如果危险活动的产生具有意外性或偶然性,则发起危险的人不需承担法律责任。但是,在活动过程中,如果有关人员疏忽大意,并且人工智能的使用不在合理和合法的范围内,则从事危险活动的人员将承担责任,并且必须承担责任。
3.补偿原则
根据补偿原则,每个民事主体都有权利获得自己“应得的东西”,而“应得的东西”既包括正面的利益,也包括负面的罚则。该原则在人工智能领域,即民事主体使用人工智能,在享人工智能带来的收益等好处时,也应承担因人工智能给他人带来损失的风险。
[本文系基金項目:江苏大学2020年大学生实践创新训练计划项目(项目编号:202010299589X)的研究成果。]
(江苏大学)
参考文献:
[1]杨立新.人格权法专论[M].北京:高等教育出版社,2005.
[2]周永坤.法理学[M].北京:法律出版社,2016.
[3]杨立新,袁雪石.论声音权的独立及其民法保护[J].法商研究,2005(04):103-109.
[4]王利明.论人格权独立成编的理由[J].法学评论, 2017 (6).
[5]李涛.论声音权在人格权编中的确立[J].三峡大学学报(人文社会科学版),2019,41(03):92-96.
[6]王利明,杨立新.民法学(第3版),法律出版社,2011(01).
[7] 袁雪石译.魁北克省民法典人格权部分节译.载杨立新主编.民商法前沿(第2辑)[C]法律出版社,2004.262.