论文部分内容阅读
【内容摘要】 当下,数据新闻在全球新闻媒体中得到广泛应用,但数据新闻的发展也伴随出现各式各样的伦理风险,如算法错误、个人隐私泄露、算法歧视、商业利益驱使下的不良诱导、新闻原有的人文关怀缺失等。解决这些伦理风险问题的关键是处理好新闻媒体人与智能算法间的关系,应从坚守新闻理念、风险预防、完善立法、行业监管等多个角度规范数据新闻的发展路径,尽可能减少数据新闻所带来的伦理风险。
【关 键 词】数据新闻;伦理风险;算法歧视;算法滥用
随着大数据及人工智能技术的迅速发展,全球主要新闻媒体也迅速将其应用到新闻生产与分发的过程之中,从而推动“数据新闻”①的不断发展。数据新闻本质上是“利用数据挖掘、数据统计分析等技术手段从海量数据中发现新闻线索,通过可视化技术呈现新闻故事的新闻报道方式”② 。但是,在看到数据新闻给媒体行业带来高效、及时等便利的同时,也要看到它不可避免地危及现有人类社会的伦理秩序。这些伦理风险主要体现在数据算法、数据隐私、数据应用等三个维度,媒体人在应用数据新闻之时应保持警醒。
一、数据新闻的算法风险
算法是数据新闻生产过程中所面临的第一维度风险。算法原指数学的运算法则,后来随着计算机技术的广泛应用,被用来指代计算机运行过程中所执行的代码程序。随着互联网技术与人工智能及大数据的广泛应用,算法技术取得了前所未有的进步,并被应用到人类社会生活中的各个领域。就数据新闻的生产过程而言,算法是将挖掘的新闻数据进行归纳、分析并重新生成新闻的基本过程。在当今媒体生产数据新闻的过程中,面临着两个层次的伦理风险。
第一,算法泄露风险。进入大数据与人工智能时代之后,新闻媒体行业之间的竞争更加激烈,各大新闻媒体都希望能够在行业竞争中取得领先地位。在数据新闻诞生之前,新闻媒体竞争的基本手段是挖掘对方的记者及管理人才。但是,在数据新闻出现之后,算法争夺成为新闻媒体竞争的新焦点。2019年7月底,人民日报社副总编辑许正中在“2019中国网络媒体论坛”上的演讲中指出:“未来,一个媒体平台的竞争力可能会取决于数据、算力和算法。”①由于算法本身就是数据程序,并需要在训练、使用过程中不断地运行模型参数,所以很容易被第三方通过各种手段窃取。
数据新闻算法一旦被第三方窃取,新闻媒体行业的公平竞争将遭到严重破坏,原数据新闻用户被置于危险之中。与传统的高薪拉拢人才相比,算法窃取者无须花费多高的成本,就能够提供数据新闻信息,而拥有该算法所有权的媒体则面临巨大的商业损失,新闻行业的公平竞争因而遭到严重破坏。不仅如此,由于数据新闻算法自身还拥有较多的个人数据信息,被第三方窃取之后,这些个人信息就很容易被置于网络欺诈、人身勒索等危险境地,亦有可能进一步引发法律索赔与责任追究等一系列问题。
第二,算法错误风险。数据算法从设计、训练到最后投入新闻生产与分发应用,其运行逻辑思维仍然无法完全代替人类。这是因为,算法的设计及训练数据都不可能完全覆盖所有可能发生的场景,从而使得算法本身就有发生错误的可能性。尽管随着算法的不断完善,这种错误的可能性在不断地降低,而一旦该算法的参数被他人恶意修改,或是遭到网络攻击,都将使算法性能明显下降,错误率明显上升。而且,如果过度依赖这种高效、迅速的新闻生产模式,将很难及时觉察到可能的算法错误。
算法错误的直接后果是所生产的数据新闻会误导用户及公众读者,甚至影响舆论的整体氛围,降低媒体的公信力。例如,2017年美国拉斯维加斯的恶性枪击事件造成大量人员伤亡,事后,谷歌搜索引擎和脸书因为传播错误的新闻信息而遭到公众的强烈批评。谷歌平台上的新闻报道不仅将凶手名字搞错,而且新闻链接也被饱受争议的社交网站4Chan所占据。该网站不仅公开传播虚假信息,还试图让这次枪击案政治化。对此,谷歌公司将其歸咎于算法错误。然而,此前该错误信息已经被用户大量转发。
应对数据新闻可能产生的算法风险,宜采取以下措施。
在算法泄露问题上,各新闻媒体及网络平台须加强算法的保密性。一是通过强化加密系统,使算法的使用训练、实际应用分权责到具体人;二是定期进行风险评估及模拟控制,如果出现泄露危机,该如何及时挽救才能最大程度地减少损失;三是媒体人要树立起严格的保密意识,对从事数据新闻生产及分发的相关员工定期进行保密培训。
在算法错误问题上,要建立起对算法程序定期检查及安全升级的机制。一是要防止算法参数被他人修改,设立更高的算法数据修改权限;二是对算法已经存在的问题及时进行整改,全方位弥补已经存在的漏洞。一旦发生问题,就能够及时启动应急风险机制,尽可能降低对媒体公信力的影响。
二、数据新闻的隐私风险
数据新闻的生产依赖于新闻数据的大规模挖掘与采集,并由智能算法加以归纳、分析而生成。这些被收集的新闻数据,基本上都是围绕人类社会展开的。也就是说,这些数据实际上就是公众日常生活或一言一行的数字化,最终成为新闻媒体提取素材、整合材料、生产数据新闻的最终依据。然而,随着人类社会不断发展及文明的不断进步,人们对个人隐私的保护也日益重视,从而使得数据新闻的生产不可避免地面临着隐私伦理风险。这也是当前人工智能及大数据应用于新闻媒体被人诟病最多之处,主要表现在以下两个方面。
第一,数据采集侵权风险。随着智能图像及语音识别技术的不断进步,加之与物联网设备的结合,各大新闻媒体都可以通过线下进行数据的智能采集。如现在各种智能音箱、家用机器人等智能家用设备已经走入千家万户,但它们在运行的过程中,可能不经过用户的允许,就可以实时收集每位用户的生活信息而侵犯个人隐私权。2019年4月,亚马逊公司被曝出其生产的智能音箱“Echo”在用户不知情的情况下录制其日常对话且进行分析。对此,亚马逊辩解这是为了改进语音助手的语言理解能力与用户的体验反馈。此外,一些媒体在通过网络或其他机构获取数据时,也往往不会告知公众。如英国《卫报》曾通过推特公司自行采集数十万用户推文进行文本分析,探求2011年伦敦暴乱事件中谣言的传播路径,此举遭到公众抗议而使其深陷舆论旋涡。 除此之外,部分网络媒体在生产数据新闻之时,未经授权即通过网络采集多个平台的相关新闻信息,通过智能算法对其进行重新编辑后,再推送给用户。这种窃取并模糊出处生产数据新闻的方法,直接侵犯其他媒体的新闻版权,引发媒体之间的版权纠纷。例如,2014年6月《广州日报》等多家媒体起诉“今日头条”侵犯其著作权。2017年,“今日头条”再次曝出类似侵犯其他新闻媒体版权的纠纷,腾讯、搜狐、《南方日报》等多家媒体纷纷起诉其侵犯作品版权与约稿版权。原因在于,这不仅仅是简单的新闻作品侵权问题,如果用户形成通过“今日头条”客户端看新闻的习惯,那么其他生产新闻的媒体平台就会失去更多的用户。
第二,数据泄露侵权风险。数据新闻在广泛深入的数据挖掘过程中,很容易涉及公众的隐私数据。在数据新闻的分发过程中,或者由于第三方的非法侵入,都有可能将公众隐私数据暴露出来。特别是互联网技术的发展与媒体商业化的追求,往往有不法分子利用其漏洞窃取并泄露数据,甚至形成数据非法买卖的产业链,数据新闻的合法性与媒体的公信力深受此负面影响。不仅如此,在媒体强大的传播力面前,数据泄露也容易使公众面临网络舆论暴力的威胁,甚至人身安全也会受到直接影响。有鉴于此,媒体机构为了取信公众舆论,往往不得不公开其采集信息的手段,并接受公众更为严格的监督。此外,还需要花费更多的成本来维护已经存储的新闻数据,从而使其担负起沉重的道义与经济负担。
2012年12月,美国康涅狄格州纽敦镇桑迪胡克小学发生恶性枪击事件。随后不久,纽约郊区的《新闻报》(The Journal News)刊登题为《隔壁的持枪者:你所不知道的街区武器》文章,对该报覆盖主要受众的韦斯特切斯特、帕特南和罗克兰三个郡的社区枪支情况进行报道。同时,在网络版上公开了韦斯特切斯特和罗克兰的“枪支许可地图”,并标明了持有枪支许可证居民的姓名和地址。尽管该数据是《新闻报》根据当地信息自由法提出申请后获得的公共记录,但仍然引发当地公众的强烈不满。对此,《新闻报》媒体集团发行人哈森事后发表声明辩解说:“纽约居民有权合法拥枪,同时他们也有权获取公开信息。”①
如何界定个人隐私权与公众知情权的界限,是数据新闻避免隐私伦理风险争议的根本问题。对此,媒体机构要不断改进数据新闻算法,在数据采集之时须严格依照相关法律规范,对于个人敏感的信息要给予相应的识别与处理,保证既能够抓取有用的数据,同时也不侵犯个人隐私权。同时,媒体机构也应对媒体人员加强隐私保护的培训,提升媒体人的职业操守。另外,随着社会进步以及人类对隐私权的日益重视,还要用发展的眼光来看待个人数据信息。许多以前不被视为隐私的信息,现在或未来的一段时间后就可能转化为隐私。公众也应对媒体保持有效的监督,推动公众与媒体之间在该问题上保持良性的互动关系。
三、数据新闻的应用风险
数据新闻的核心是智能算法与新闻信息的数据分析。通过智能分析与应用,探寻隐藏在海量数据背后的结构或存在模式,从而实现数据新闻的顺利生产与分发。然而,随着数据新闻的便利、高效为各大新闻媒体所钟爱,数据新闻已经深深地渗入新闻媒体的日常运作之中,这也就使得数据新闻更容易受到既有算法的影响,从而产生伦理风险。这并非源自智能机器自身,而是智能算法在学习人类经验的过程中,吸收了具有偏见的文化观念所致,主要体现在算法歧视与算法滥用两个方面。
算法歧视指设计者或开发者将自身价值观及认知带入算法之中,或者是算法运行了带有歧视偏见的数据包,从而使最终生产的数据新闻带有歧视性。这主要涉及两种情况。
一是人为因素,主要涉及数据新闻算法设计者及新闻公众用户。设计者可能在算法的编写过程中,将自己的主观喜好嵌入或固化到算法之中,或有可能并没有考虑到新闻现实存在一些特殊的情况。特别是在对受众进行种族、宗教、性别、年龄的划分时,很容易出现新闻传播的不对称与不公平,从而引发一部分公众利益受损。脸书的广告投放算法曾经是按种族区分的,并允许广告商阻止特定的种族群体看到他们的广告。2016年11月,脸书正式宣布,将停止提供有针对性的种族广告投放服务,尤其是在房屋租售、信用贷款和招聘求职广告领域,会彻底禁止一切广告商带有种族歧视色彩的广告投放行为。在与新闻公众用户互动过程之中,智能算法在这种互动、学习的过程中也可能产生算法歧视,因为无法判断公众用户所提供的数据的好坏。2016年3月23日,微软公司推出一个智能聊天机器人Tay,然而仅仅在推特上线一天就被紧急下架。原因在于,该智能机器人的设计者本希望它能够与用户在开放性的互动中学习,形成自己的观点与看法,没有限制其语言与交往模式。然而,Tay在与用户对话的过程中,不仅快速“学”会了辱骂人类,还“学”会了发表有关性别歧视和种族歧视的言论。由此可见,算法并不能完全判断这些数据背后存在的人类歧视与错误偏见。
二是机器学习原因。随着数据新闻的日益普及,智能算法已经深入媒体日常新闻生产与分发的方方面面。在这种情况下,简单的智能算法已经不能满足媒体的发展与需要。因此,数据新闻的智能算法变得日益复杂,某些程序自我学习多维特征的趋势突出,很可能会产生超出设计者控制预期的结果。之所以有这种可能,与设计者算法数据选择存在着错误,或是具有偏颇的数据被带入下一轮算法运算有关。例如,原先不具有多少偏见的机器自我学习,现在被带入了越来越多的商业性指令。无论是移动客户端,还是电脑终端,浏览数据新闻时,经常跳出各种商业广告。而这些被推荐的商业广告,也往往因为用户带有倾向性的选择,使其可能存在某些歧视性的判断。
算法滥用是指人们在算法的使用过程中,超出既有使用目的或限制范围而引发不良后果的情况。一般而言,数据新闻的算法滥用主要体现在以下几个方面。
一是设计者出于商业利益的考虑,对用户进行不良诱导,导致用户沉迷其中。“信息茧房”问题突出,导致用户虚实不分,无法自拔而酿成恶性循环。例如2018年3月曝出的脸书“数据门”事件。英国的剑桥分析公司曾经根据剑桥大学开发的APP,陆续从脸书非法获取了5000万用户的数据。通过大数据的智能分析技术分析这些人的兴趣点与喜好,该公司精准投放他们可能喜好的数据新闻以及商业广告,从而能够对其政治倾向施加潜移默化的影响。事件曝光后,剑桥分析公司被迫发表声明,表示已經删除全部数据,而且也没有将该数据用于影响2016年美国总统大选。 二是过度依赖算法本身,导致同质化数据新闻现象突出,新闻原有的人文关怀理念缺失。例如,在巴西里约奥运会期间,“今日头条”开发了“张小明”智能写稿机器人,通过与奥运会相关数据库的联接,在其数据更新的2秒之内,就可直接生成数据新闻稿,并立刻完成该新闻稿件的投放。据统计,在奥运会开幕后的6天里,“张小明”完成了超过200多条新闻的刊发,充分体现了数据新闻智能算法的及时、高效、多产。尽管这种新闻报道有助于用户及时了解赛场动态,但缺乏记者的感性呈现,也无法引导受众内心的思想情感。这种数据新闻智能算法的滥用,本身就是对新闻自身人文精神理念的破坏,也无助于人类自身对这个世界认知的提升。算法的滥用也可能使部分用户产生“被害臆想症”,如怀疑手机麦克风会窃取语音信息,输入法也会窃取数据,等等。这将导致数据开放的严重困难,从而影响数据新闻的进一步发展。
数据新闻的算法能否合理运用,直接影响着数据新闻质量的高低。因此,必须明确数据新闻智能算法的应用领域与边界限制,这就需要新闻媒体构建数据新闻行业的标准准则。作为媒体人,必须认识到新闻是有活力、有情怀的信息,不能过分依赖数据新闻而产生惰性,失去了新闻原本拥有的价值理念。不仅如此,由于算法技术尚未成熟,更需要人的经验判断与之结合。
四、数据新闻的规范发展之道
防范数据新闻伦理风险的核心是要处理好新闻媒体人与智能算法间的关系问题。当前,随着数据新闻智能化技术的不断进步,越来越多的媒体将新闻生产与分发等工作交给智能算法来完成。这样,数据新闻算法所面临的伦理风险也必将更加突出。特别是该算法与物联网的结合,能够拥有无限数据挖掘、抓取、分析能力,不仅使传统依赖人工抓取信息的媒体人很容易陷入失业的焦虑状态,也使許多媒体人的自主性遭到削弱,变成新闻信息灌输的工具。这也会给新闻监管与司法责任的追究带来新的挑战。因此,必须对数据新闻的伦理风险进行通盘考虑,改变人机关系在新闻生产与传播中的失衡状态,确立一套完整的风险应对框架机制。
(一)新闻理念规范
数据新闻必须坚守新闻公平正义的原则。媒体的公平与正义性,体现在报道新闻时力求公正、客观的叙述事实状态,尽可能减少主观性意愿的干扰。这不仅是尊重人的尊严与基本权利的体现,也是对新闻核心理念的认可。因此,无论数据新闻的智能算法发展到什么程度,都不能改变新闻的核心原则。新闻媒体人必须在设计、使用数据新闻之时,增强自身对新闻核心理念的理解,牢记公平正义的新闻理念规范,保证数据新闻算法合理、合规地使用,尽可能避免歧视性等伦理风险的出现。不仅如此,由于数据新闻的生成很可能是多个算法之间相互协作而成,还要注意多个算法之间在数据新闻制作的过程中是否会产生冲突的问题。
(二)风险预防规范
必须构建数据新闻风险管控的管理框架。构建一个数据新闻风险管理的基本机制,有助于在出现风险危机之时及时应对。首先,这需要媒体管理层意识到数据新闻智能算法可能带来的伦理风险,明确媒体自身伦理风险的管控目标与基本原则;其次,媒体内部建立起伦理风险管理的基本意识与风险文化,加强对新闻媒体人的专业培训,并定期对智能算法进行风险评估;再次,设立专业的风险应对及监督机构,对其权力分工、资金预算、人员分配等进行合理配置,时刻准备应对可能出现的风险问题;最后,可以邀请外部专家,共同对可能出现的伦理风险进行预判,构建应对不同伦理风险的方案,做到对可能出现的伦理风险问题有的放矢,有备无患。
(三)完善立法规范
数据新闻的研发及应用过程应建立明确的法律法规体系。鉴于近年来数据新闻伦理事件时有发生,权责问题屡屡成为新闻媒体与公众之间争议的焦点。一套完整而有效的法律规范有助于明确设计者与使用方的权利与义务,全方位规范人工智能与新闻媒体之间的权责关联,并能够使事后问责、整改得到有效的执行。具体来说,数据新闻算法在运行过程中,必须对收集、整理、生成、分发新闻的每一个步骤进行准确记录,并确立隐私保护与责任归属。这样,一旦哪一个步骤出现伦理风险问题,就能够从技术上查明责任方从而问责到人。不仅如此,作为拥有智能算法的媒体机构,也要有专业的决策机构来负责建规立章,保障应用智能算法时的公平合理性。
(四)行业监管规范
政府部门应加强对数据新闻智能算法使用的监管与引导。政府是人类伦理治理规则的管控者,往往扮演着双重角色。从国家战略层面来看,数据新闻已经成为新闻行业发展的主流,并渗入社会的各个领域,直接关系国家安全与社会的稳定。因此,为了避免国外利用该技术破坏社会秩序,就必须在国家安全的视角下,对数据新闻的发展给予引领与监管。这方面可以参考国外政府的监管经验,如通过实名制、设立相应数据新闻安全部门及负责人等。除此之外,还可以加强与其他国家在该领域的技术与安全合作,共同维护国家新闻舆论安全。从国内舆论层面来看,媒体行业也应该联合起来,对数据新闻媒体过度追求商业化的不法行为——如造假、传播非法信息等,予以坚决打击,创造更好的数据新闻环境,通过行业规范化促进新闻媒体间的良性竞争。
(责任编辑:江璐)
【关 键 词】数据新闻;伦理风险;算法歧视;算法滥用
随着大数据及人工智能技术的迅速发展,全球主要新闻媒体也迅速将其应用到新闻生产与分发的过程之中,从而推动“数据新闻”①的不断发展。数据新闻本质上是“利用数据挖掘、数据统计分析等技术手段从海量数据中发现新闻线索,通过可视化技术呈现新闻故事的新闻报道方式”② 。但是,在看到数据新闻给媒体行业带来高效、及时等便利的同时,也要看到它不可避免地危及现有人类社会的伦理秩序。这些伦理风险主要体现在数据算法、数据隐私、数据应用等三个维度,媒体人在应用数据新闻之时应保持警醒。
一、数据新闻的算法风险
算法是数据新闻生产过程中所面临的第一维度风险。算法原指数学的运算法则,后来随着计算机技术的广泛应用,被用来指代计算机运行过程中所执行的代码程序。随着互联网技术与人工智能及大数据的广泛应用,算法技术取得了前所未有的进步,并被应用到人类社会生活中的各个领域。就数据新闻的生产过程而言,算法是将挖掘的新闻数据进行归纳、分析并重新生成新闻的基本过程。在当今媒体生产数据新闻的过程中,面临着两个层次的伦理风险。
第一,算法泄露风险。进入大数据与人工智能时代之后,新闻媒体行业之间的竞争更加激烈,各大新闻媒体都希望能够在行业竞争中取得领先地位。在数据新闻诞生之前,新闻媒体竞争的基本手段是挖掘对方的记者及管理人才。但是,在数据新闻出现之后,算法争夺成为新闻媒体竞争的新焦点。2019年7月底,人民日报社副总编辑许正中在“2019中国网络媒体论坛”上的演讲中指出:“未来,一个媒体平台的竞争力可能会取决于数据、算力和算法。”①由于算法本身就是数据程序,并需要在训练、使用过程中不断地运行模型参数,所以很容易被第三方通过各种手段窃取。
数据新闻算法一旦被第三方窃取,新闻媒体行业的公平竞争将遭到严重破坏,原数据新闻用户被置于危险之中。与传统的高薪拉拢人才相比,算法窃取者无须花费多高的成本,就能够提供数据新闻信息,而拥有该算法所有权的媒体则面临巨大的商业损失,新闻行业的公平竞争因而遭到严重破坏。不仅如此,由于数据新闻算法自身还拥有较多的个人数据信息,被第三方窃取之后,这些个人信息就很容易被置于网络欺诈、人身勒索等危险境地,亦有可能进一步引发法律索赔与责任追究等一系列问题。
第二,算法错误风险。数据算法从设计、训练到最后投入新闻生产与分发应用,其运行逻辑思维仍然无法完全代替人类。这是因为,算法的设计及训练数据都不可能完全覆盖所有可能发生的场景,从而使得算法本身就有发生错误的可能性。尽管随着算法的不断完善,这种错误的可能性在不断地降低,而一旦该算法的参数被他人恶意修改,或是遭到网络攻击,都将使算法性能明显下降,错误率明显上升。而且,如果过度依赖这种高效、迅速的新闻生产模式,将很难及时觉察到可能的算法错误。
算法错误的直接后果是所生产的数据新闻会误导用户及公众读者,甚至影响舆论的整体氛围,降低媒体的公信力。例如,2017年美国拉斯维加斯的恶性枪击事件造成大量人员伤亡,事后,谷歌搜索引擎和脸书因为传播错误的新闻信息而遭到公众的强烈批评。谷歌平台上的新闻报道不仅将凶手名字搞错,而且新闻链接也被饱受争议的社交网站4Chan所占据。该网站不仅公开传播虚假信息,还试图让这次枪击案政治化。对此,谷歌公司将其歸咎于算法错误。然而,此前该错误信息已经被用户大量转发。
应对数据新闻可能产生的算法风险,宜采取以下措施。
在算法泄露问题上,各新闻媒体及网络平台须加强算法的保密性。一是通过强化加密系统,使算法的使用训练、实际应用分权责到具体人;二是定期进行风险评估及模拟控制,如果出现泄露危机,该如何及时挽救才能最大程度地减少损失;三是媒体人要树立起严格的保密意识,对从事数据新闻生产及分发的相关员工定期进行保密培训。
在算法错误问题上,要建立起对算法程序定期检查及安全升级的机制。一是要防止算法参数被他人修改,设立更高的算法数据修改权限;二是对算法已经存在的问题及时进行整改,全方位弥补已经存在的漏洞。一旦发生问题,就能够及时启动应急风险机制,尽可能降低对媒体公信力的影响。
二、数据新闻的隐私风险
数据新闻的生产依赖于新闻数据的大规模挖掘与采集,并由智能算法加以归纳、分析而生成。这些被收集的新闻数据,基本上都是围绕人类社会展开的。也就是说,这些数据实际上就是公众日常生活或一言一行的数字化,最终成为新闻媒体提取素材、整合材料、生产数据新闻的最终依据。然而,随着人类社会不断发展及文明的不断进步,人们对个人隐私的保护也日益重视,从而使得数据新闻的生产不可避免地面临着隐私伦理风险。这也是当前人工智能及大数据应用于新闻媒体被人诟病最多之处,主要表现在以下两个方面。
第一,数据采集侵权风险。随着智能图像及语音识别技术的不断进步,加之与物联网设备的结合,各大新闻媒体都可以通过线下进行数据的智能采集。如现在各种智能音箱、家用机器人等智能家用设备已经走入千家万户,但它们在运行的过程中,可能不经过用户的允许,就可以实时收集每位用户的生活信息而侵犯个人隐私权。2019年4月,亚马逊公司被曝出其生产的智能音箱“Echo”在用户不知情的情况下录制其日常对话且进行分析。对此,亚马逊辩解这是为了改进语音助手的语言理解能力与用户的体验反馈。此外,一些媒体在通过网络或其他机构获取数据时,也往往不会告知公众。如英国《卫报》曾通过推特公司自行采集数十万用户推文进行文本分析,探求2011年伦敦暴乱事件中谣言的传播路径,此举遭到公众抗议而使其深陷舆论旋涡。 除此之外,部分网络媒体在生产数据新闻之时,未经授权即通过网络采集多个平台的相关新闻信息,通过智能算法对其进行重新编辑后,再推送给用户。这种窃取并模糊出处生产数据新闻的方法,直接侵犯其他媒体的新闻版权,引发媒体之间的版权纠纷。例如,2014年6月《广州日报》等多家媒体起诉“今日头条”侵犯其著作权。2017年,“今日头条”再次曝出类似侵犯其他新闻媒体版权的纠纷,腾讯、搜狐、《南方日报》等多家媒体纷纷起诉其侵犯作品版权与约稿版权。原因在于,这不仅仅是简单的新闻作品侵权问题,如果用户形成通过“今日头条”客户端看新闻的习惯,那么其他生产新闻的媒体平台就会失去更多的用户。
第二,数据泄露侵权风险。数据新闻在广泛深入的数据挖掘过程中,很容易涉及公众的隐私数据。在数据新闻的分发过程中,或者由于第三方的非法侵入,都有可能将公众隐私数据暴露出来。特别是互联网技术的发展与媒体商业化的追求,往往有不法分子利用其漏洞窃取并泄露数据,甚至形成数据非法买卖的产业链,数据新闻的合法性与媒体的公信力深受此负面影响。不仅如此,在媒体强大的传播力面前,数据泄露也容易使公众面临网络舆论暴力的威胁,甚至人身安全也会受到直接影响。有鉴于此,媒体机构为了取信公众舆论,往往不得不公开其采集信息的手段,并接受公众更为严格的监督。此外,还需要花费更多的成本来维护已经存储的新闻数据,从而使其担负起沉重的道义与经济负担。
2012年12月,美国康涅狄格州纽敦镇桑迪胡克小学发生恶性枪击事件。随后不久,纽约郊区的《新闻报》(The Journal News)刊登题为《隔壁的持枪者:你所不知道的街区武器》文章,对该报覆盖主要受众的韦斯特切斯特、帕特南和罗克兰三个郡的社区枪支情况进行报道。同时,在网络版上公开了韦斯特切斯特和罗克兰的“枪支许可地图”,并标明了持有枪支许可证居民的姓名和地址。尽管该数据是《新闻报》根据当地信息自由法提出申请后获得的公共记录,但仍然引发当地公众的强烈不满。对此,《新闻报》媒体集团发行人哈森事后发表声明辩解说:“纽约居民有权合法拥枪,同时他们也有权获取公开信息。”①
如何界定个人隐私权与公众知情权的界限,是数据新闻避免隐私伦理风险争议的根本问题。对此,媒体机构要不断改进数据新闻算法,在数据采集之时须严格依照相关法律规范,对于个人敏感的信息要给予相应的识别与处理,保证既能够抓取有用的数据,同时也不侵犯个人隐私权。同时,媒体机构也应对媒体人员加强隐私保护的培训,提升媒体人的职业操守。另外,随着社会进步以及人类对隐私权的日益重视,还要用发展的眼光来看待个人数据信息。许多以前不被视为隐私的信息,现在或未来的一段时间后就可能转化为隐私。公众也应对媒体保持有效的监督,推动公众与媒体之间在该问题上保持良性的互动关系。
三、数据新闻的应用风险
数据新闻的核心是智能算法与新闻信息的数据分析。通过智能分析与应用,探寻隐藏在海量数据背后的结构或存在模式,从而实现数据新闻的顺利生产与分发。然而,随着数据新闻的便利、高效为各大新闻媒体所钟爱,数据新闻已经深深地渗入新闻媒体的日常运作之中,这也就使得数据新闻更容易受到既有算法的影响,从而产生伦理风险。这并非源自智能机器自身,而是智能算法在学习人类经验的过程中,吸收了具有偏见的文化观念所致,主要体现在算法歧视与算法滥用两个方面。
算法歧视指设计者或开发者将自身价值观及认知带入算法之中,或者是算法运行了带有歧视偏见的数据包,从而使最终生产的数据新闻带有歧视性。这主要涉及两种情况。
一是人为因素,主要涉及数据新闻算法设计者及新闻公众用户。设计者可能在算法的编写过程中,将自己的主观喜好嵌入或固化到算法之中,或有可能并没有考虑到新闻现实存在一些特殊的情况。特别是在对受众进行种族、宗教、性别、年龄的划分时,很容易出现新闻传播的不对称与不公平,从而引发一部分公众利益受损。脸书的广告投放算法曾经是按种族区分的,并允许广告商阻止特定的种族群体看到他们的广告。2016年11月,脸书正式宣布,将停止提供有针对性的种族广告投放服务,尤其是在房屋租售、信用贷款和招聘求职广告领域,会彻底禁止一切广告商带有种族歧视色彩的广告投放行为。在与新闻公众用户互动过程之中,智能算法在这种互动、学习的过程中也可能产生算法歧视,因为无法判断公众用户所提供的数据的好坏。2016年3月23日,微软公司推出一个智能聊天机器人Tay,然而仅仅在推特上线一天就被紧急下架。原因在于,该智能机器人的设计者本希望它能够与用户在开放性的互动中学习,形成自己的观点与看法,没有限制其语言与交往模式。然而,Tay在与用户对话的过程中,不仅快速“学”会了辱骂人类,还“学”会了发表有关性别歧视和种族歧视的言论。由此可见,算法并不能完全判断这些数据背后存在的人类歧视与错误偏见。
二是机器学习原因。随着数据新闻的日益普及,智能算法已经深入媒体日常新闻生产与分发的方方面面。在这种情况下,简单的智能算法已经不能满足媒体的发展与需要。因此,数据新闻的智能算法变得日益复杂,某些程序自我学习多维特征的趋势突出,很可能会产生超出设计者控制预期的结果。之所以有这种可能,与设计者算法数据选择存在着错误,或是具有偏颇的数据被带入下一轮算法运算有关。例如,原先不具有多少偏见的机器自我学习,现在被带入了越来越多的商业性指令。无论是移动客户端,还是电脑终端,浏览数据新闻时,经常跳出各种商业广告。而这些被推荐的商业广告,也往往因为用户带有倾向性的选择,使其可能存在某些歧视性的判断。
算法滥用是指人们在算法的使用过程中,超出既有使用目的或限制范围而引发不良后果的情况。一般而言,数据新闻的算法滥用主要体现在以下几个方面。
一是设计者出于商业利益的考虑,对用户进行不良诱导,导致用户沉迷其中。“信息茧房”问题突出,导致用户虚实不分,无法自拔而酿成恶性循环。例如2018年3月曝出的脸书“数据门”事件。英国的剑桥分析公司曾经根据剑桥大学开发的APP,陆续从脸书非法获取了5000万用户的数据。通过大数据的智能分析技术分析这些人的兴趣点与喜好,该公司精准投放他们可能喜好的数据新闻以及商业广告,从而能够对其政治倾向施加潜移默化的影响。事件曝光后,剑桥分析公司被迫发表声明,表示已經删除全部数据,而且也没有将该数据用于影响2016年美国总统大选。 二是过度依赖算法本身,导致同质化数据新闻现象突出,新闻原有的人文关怀理念缺失。例如,在巴西里约奥运会期间,“今日头条”开发了“张小明”智能写稿机器人,通过与奥运会相关数据库的联接,在其数据更新的2秒之内,就可直接生成数据新闻稿,并立刻完成该新闻稿件的投放。据统计,在奥运会开幕后的6天里,“张小明”完成了超过200多条新闻的刊发,充分体现了数据新闻智能算法的及时、高效、多产。尽管这种新闻报道有助于用户及时了解赛场动态,但缺乏记者的感性呈现,也无法引导受众内心的思想情感。这种数据新闻智能算法的滥用,本身就是对新闻自身人文精神理念的破坏,也无助于人类自身对这个世界认知的提升。算法的滥用也可能使部分用户产生“被害臆想症”,如怀疑手机麦克风会窃取语音信息,输入法也会窃取数据,等等。这将导致数据开放的严重困难,从而影响数据新闻的进一步发展。
数据新闻的算法能否合理运用,直接影响着数据新闻质量的高低。因此,必须明确数据新闻智能算法的应用领域与边界限制,这就需要新闻媒体构建数据新闻行业的标准准则。作为媒体人,必须认识到新闻是有活力、有情怀的信息,不能过分依赖数据新闻而产生惰性,失去了新闻原本拥有的价值理念。不仅如此,由于算法技术尚未成熟,更需要人的经验判断与之结合。
四、数据新闻的规范发展之道
防范数据新闻伦理风险的核心是要处理好新闻媒体人与智能算法间的关系问题。当前,随着数据新闻智能化技术的不断进步,越来越多的媒体将新闻生产与分发等工作交给智能算法来完成。这样,数据新闻算法所面临的伦理风险也必将更加突出。特别是该算法与物联网的结合,能够拥有无限数据挖掘、抓取、分析能力,不仅使传统依赖人工抓取信息的媒体人很容易陷入失业的焦虑状态,也使許多媒体人的自主性遭到削弱,变成新闻信息灌输的工具。这也会给新闻监管与司法责任的追究带来新的挑战。因此,必须对数据新闻的伦理风险进行通盘考虑,改变人机关系在新闻生产与传播中的失衡状态,确立一套完整的风险应对框架机制。
(一)新闻理念规范
数据新闻必须坚守新闻公平正义的原则。媒体的公平与正义性,体现在报道新闻时力求公正、客观的叙述事实状态,尽可能减少主观性意愿的干扰。这不仅是尊重人的尊严与基本权利的体现,也是对新闻核心理念的认可。因此,无论数据新闻的智能算法发展到什么程度,都不能改变新闻的核心原则。新闻媒体人必须在设计、使用数据新闻之时,增强自身对新闻核心理念的理解,牢记公平正义的新闻理念规范,保证数据新闻算法合理、合规地使用,尽可能避免歧视性等伦理风险的出现。不仅如此,由于数据新闻的生成很可能是多个算法之间相互协作而成,还要注意多个算法之间在数据新闻制作的过程中是否会产生冲突的问题。
(二)风险预防规范
必须构建数据新闻风险管控的管理框架。构建一个数据新闻风险管理的基本机制,有助于在出现风险危机之时及时应对。首先,这需要媒体管理层意识到数据新闻智能算法可能带来的伦理风险,明确媒体自身伦理风险的管控目标与基本原则;其次,媒体内部建立起伦理风险管理的基本意识与风险文化,加强对新闻媒体人的专业培训,并定期对智能算法进行风险评估;再次,设立专业的风险应对及监督机构,对其权力分工、资金预算、人员分配等进行合理配置,时刻准备应对可能出现的风险问题;最后,可以邀请外部专家,共同对可能出现的伦理风险进行预判,构建应对不同伦理风险的方案,做到对可能出现的伦理风险问题有的放矢,有备无患。
(三)完善立法规范
数据新闻的研发及应用过程应建立明确的法律法规体系。鉴于近年来数据新闻伦理事件时有发生,权责问题屡屡成为新闻媒体与公众之间争议的焦点。一套完整而有效的法律规范有助于明确设计者与使用方的权利与义务,全方位规范人工智能与新闻媒体之间的权责关联,并能够使事后问责、整改得到有效的执行。具体来说,数据新闻算法在运行过程中,必须对收集、整理、生成、分发新闻的每一个步骤进行准确记录,并确立隐私保护与责任归属。这样,一旦哪一个步骤出现伦理风险问题,就能够从技术上查明责任方从而问责到人。不仅如此,作为拥有智能算法的媒体机构,也要有专业的决策机构来负责建规立章,保障应用智能算法时的公平合理性。
(四)行业监管规范
政府部门应加强对数据新闻智能算法使用的监管与引导。政府是人类伦理治理规则的管控者,往往扮演着双重角色。从国家战略层面来看,数据新闻已经成为新闻行业发展的主流,并渗入社会的各个领域,直接关系国家安全与社会的稳定。因此,为了避免国外利用该技术破坏社会秩序,就必须在国家安全的视角下,对数据新闻的发展给予引领与监管。这方面可以参考国外政府的监管经验,如通过实名制、设立相应数据新闻安全部门及负责人等。除此之外,还可以加强与其他国家在该领域的技术与安全合作,共同维护国家新闻舆论安全。从国内舆论层面来看,媒体行业也应该联合起来,对数据新闻媒体过度追求商业化的不法行为——如造假、传播非法信息等,予以坚决打击,创造更好的数据新闻环境,通过行业规范化促进新闻媒体间的良性竞争。
(责任编辑:江璐)