论文部分内容阅读
数据画像,是指运用大数据和机器学习等技术对个人数据进行加工和分析,进而评估、预测数据主体诸如工作表现、经济状况、健康状况、个人偏好等特定情况的自动化数据处理。数据画像生成后,将被用于对个人数据所对应的主体作出具体的决定,比如判定数据主体是否符合信贷资格。通过运用此种技术,商业机构的生产和营销效率得以极大提升,用户也得以享受到商业机构提供的更为快捷方便的服务。目前,该技术已经开始被应用在广告、银行、保险、医疗等许多行业之中。数据画像在带来益处的同时,也带来两方面问题。其一是其可能侵犯数据主体的个人隐私。为了刻画出精准的用户数据画像,商业机构必须收集并处理尽量多的用户个人数据,这种数据收集与处理行为是否符合法律规范以及是否会对数据主体的隐私造成侵害都不无疑问。其二是这种技术可能会摧毁商业交易中的公平价值。数据画像依赖自动化算法作出决策,其运行过程对数据主体而言是一个“黑箱”般的存在。同时,由于不可避免的人为或系统因素,这种“黑箱”将不可避免地输出或多或少的错误或歧视性决策。在现有情况下,即使算法作出了错误或歧视性的决策,受到决策制约的数据主体也无法进行自我救济,甚至无法察觉到这些错误或歧视性决策。这是否导致交易双方公平失衡?数据画像算法是否应当受到法律的规制?以及如果需要的话,数据画像应当受到怎样的规制等一系列问题亟待解决。为了回答上述问题,本文对数据画像的运行过程进行拆解,剖析其中存在的隐私与公平缺失问题,进而分别对其规制方案进行深入探讨。在对每个问题进行探讨的过程中,本文将依次剖析相关问题的本质,审查我国既有法律框架的规范效力,评析国际立法经验,最后探讨我国的规制思路。在写作过程中,笔者综合采用了文献研究方法和比较研究方法。除导言和结语之外,本文主要包括以下三个章节:第一章,本章对数据画像运行的基本步骤进行拆解,剖析其中可能存在的隐私侵害问题和公平失衡问题。总的来说,数据画像的运行过程主要包含三大步骤:“收集个人数据”、“寻找数据相关性”以及对数据主体的特定方面“作出评估或预测”。在构建数据画像的过程中,商业机构不仅收集用户诸如姓名、出生日期等基本个人数据,还从用户生活的各个领域抓取各种各样的动态个人数据。这些数据形成了构建数据画像的“数据池”。商业机构利用大数据和机器学习等技术,对数据池中的数据进行分析和比对,进而构建出用户的数据模型。而后,自动化算法基于数据模型对数据主体特定方面的情况作出评估或预测,这些评估或预测的结果最后将被商业机构据以对数据主体作出具体决定。在这一过程中,商业机构在两个环节的行为可能对数据主体的个人隐私造成侵害。其一是数据收集环节。商业机构运用大数据技术从用户生活的各个领域收集个人数据以构建数据画像,在大部分情况下,数据主体对此并不知情。并且,商业机构在很多领域收集的个人数据往往与其提供的服务无关,属于过度收集。其二是数据处理环节。在收集完数据后,商业机构利用大数据和人工智能等技术对来自不同渠道的个人数据进行重组和比对。但这一行为不但可能超出数据主体的原始授权,而且极有可能破解出数据主体不愿披露的全新的隐私信息。另一方面,数据画像的算法“黑箱”则可能带来公平失衡的问题。自动化决策算法的运行过程之所以被称为“黑箱”,是因为其决策均由机器借助“机器学习”技术自动作出。除非程序开发者提供详细解释,数据主体无法洞悉上述决策的逻辑与参考因素。这使得数据主体和算法使用者之间存在严重的信息不对称。由于这种算法“黑箱”的存在,自动化决策算法本身以及算法据以作出决策的个人数据可能存在的错误或歧视性因素都被掩盖了。当数据主体遭遇数据画像的不利影响时,其既无法确认数据画像的决策是否存在错误或歧视,更无法寻求任何救济。甚至,数据主体有时根本就无法察觉自己受到了数据画像算法的错误或歧视性对待。而这些,给商业交易中的公平价值带来严峻考验。第二章,本章对数据画像带来的隐私问题及其应对方案进行了集中探讨。本章认为,数据画像带来的隐私问题是个人数据保护问题在大数据背景下的延伸,本质是个人数据收集与处理的规制问题。基于对我国个人数据保护立法的梳理,本章总结出我国用于规制个人数据收集与处理行为的法律框架是“知情-同意”机制。该机制基于合同理念设立,试图促成商业机构与数据主体就个人数据的收集与处理达成合意,进而使数据主体控制自身个人数据以保护隐私。然而,在大数据和物联网背景下,数据收集渠道多样、数据处理方式多元且复杂,数据主体在个人数据被收集时始终无法真正知悉数据收集与处理相关的信息,从而也就没有足够的理性基础对相关收集与处理作出同意。传统“知情-同意”机制因而无法妥善解决数据画像带来的隐私问题,亟需改革。在考察了欧盟和美国针对与个人数据处理相关的个人隐私保护规范后,本章认为,我国应当放弃“知情-同意”机制,转而引入“与场景相一致”和“以风险为导向”的隐私保护理念,构建新的个人隐私保护框架。该框架将数据处理行为是否侵犯个人隐私放到具体的场景中加以分析,以数据使用行为是否符合数据主体在特定场景中的隐私期待作为该场景个人数据利用的合理性标准。同时,该框架根据不同场景中用户隐私风险的变化,要求商业机构采取不同程度的隐私保障措施。最后,以侵权法框架作为数据主体的兜底救济手段。一旦商业机构不合理使用个人数据并对数据主体的隐私造成侵害,数据主体可依法维权。第三章,本章对数据画像算法存在的公平失衡及其规制问题进行了集中探讨。首先,根据数据画像作用的差异性,本文将数据画像的使用场景区分为趋势预测型场景和资质评估型场景。通过分别分析这两类数据画像使用场景的典型代表,本章得出初步结论,认为在这两类数据画像使用场景中,当场景因素满足一定条件时,错误或歧视性的数据画像决策都将给数据主体的法律或经济利益或者其他类型的合法权益造成侵害,并且,数据主体无法通过自力进行救济。虑及数据画像算法的极度不透明性,本文提出:对数据主体进行救济的首要步骤是要求商业机构公开与算法运行相关的信息。而通过对我国既有法律规范的审视,本章发现无论是合同法、侵权法还是消费者权益保护法均无法为数据主体提供适当救济,因而需要针对数据画像探讨建立全新的规制方案。在对数据画像使用过程中所涉及的利益主体的相关利益进行分析的基础上,本文提出,数据画像规制的目的在于为数据主体提供必要救济的同时,最大限度保障数据画像技术的合法使用。为了实现该等目的,我国选取的数据画像规制手段应当符合比例原则,对不同场景下的数据画像使用场景适用有所区分的规制手段。为了进一步探讨我国的制度安排,本章考察了欧盟的相关立法,发现欧盟对于数据画像所采取的规制模式正是分类管理模式。然而,欧盟在划分场景、设置具体规范手段等方面尚存不足。最后,本文提出我国在划分数据画像使用场景时应当综合考虑数据画像的使用目的、数据画像的使用是否实质改变了商业机构与数据主体之间的交易地位以及数据画像多大程度上主导了商业机构作出针对数据主体的不利决定等因素,并据此将数据画像的使用场景分为三类。在那些由数据画像主导作出具体决定,而该决定又直接侵害了数据主体的法律权利或经济利益,且市场机制无法帮助数据主体实现自救的场景中,数据画像的使用既应当受到事前限制,也应当受到事后审查。此处的事前限制指的是受到数据主体的知情权制约。而事后审查,指的是基于数据画像作出具体决定应当受到数据主体的算法解释权的制约。基于算法解释权,数据主体可以要求商业机构披露具体决定所依据的个人数据以及作出决定的具体理由,以排查数据画像是否存在错误与歧视,并进而要求商业机构纠正相关错误与歧视或者要求退出数据画像的约束。对于一般数据画像的使用,由于数据主体在该等场景中仍然享有自主选择是否继续接受数据画像规制的自由,法律仅需为其配置知情权以帮助其做出理性选择即可。此外,考虑到过量的或者错误与歧视性的、基于数据画像的营销信息已经给数据主体带来日益广泛而深刻的困扰,本文主张法律应当赋予数据主体在任意时间拒绝商业机构使用此种数据画像的权利。