论文部分内容阅读
前不久,迫于公众舆论压力,美国奥兰多市政府和警察局发布正式声明:停止使用亚马逊人脸识别AI技术——Rekognition,再一次引发了人们对于AI可能侵犯隐私的关注。
这项名为“Rekognition”的技术使用AI人工智能来识别物体、人物、场景,以及更多的图像或视频,它可以被执法部门用来搜索和识别身份不明的嫌疑犯、没有身份证明的人,以及可能的证人和同谋者。在奥兰多,这项技术被用来在整个城市中使用监控录像来实时搜索“感兴趣的人”。尽管执法部门把它定义为更容易抓捕罪犯的方式,但民权组织担心它可能侵犯隐私权,并被用于针对弱势群体。
在此之前,包括“美国公民自由联盟”在内一些机构和人们曾强烈呼吁:亚马逊应该停止向美国政府提供强大且危险的人脸识别系统-Rekognition,因为这可能会导致美国公民的私人数据被滥用及隐私遭到侵犯。甚至亚马逊的20个股东团体都致信公司首席执行官杰夫·贝佐斯(Jeff Bezos),要求他不要司法部门出售此系统。
虽然目前Rekognition还没有传出泄露用户隐私的消息,但公众的这种担心是有根据的。今年年初“Facebook泄露门事件”,超过5,000万的Facebook用户个人隐私信息被泄露,更为严重的是,这些数据被怀疑干预了政治竞选,造成了公众对于隐私泄露的忧虑与日俱增。前不久,美国媒体又爆出Facebook一件隐私泄露事件。据报道,Facebook会给广告主提供一项特殊服务——忠诚度预测。这是一项基于AI的服务,即预测用户的未来行为,作为广告投放的依据。而“忠诚度预测”依靠的数据有:用户位置、设备信息、所连接Wi-Fi网络的情况、观看的视频记录、亲朋好友的各种细节,甚至是和朋友聊天的内容。这些数据,无疑已经触及到了用户的底线。
在国内,隐私被侵犯的情况更是屡见不鲜。去年9月浙江绍兴警方破获了全国首例利用AI人工智能技术窃取公民个人信息的案件,截获了10亿余组公民个人信息。被警方查封的平台叫做「快啊」,曾经是市场上最大的打码平台。他们在破解、窃取、贩卖和盗用个人信息实施诈骗有着完整的链条,其中人工AI技术运用在识别验证码这个环节。
与欧美国家相比,国内用户的隐私意识相对薄弱,保护隐私的法律也很匮乏,以至于被侵犯还不知觉。比如不少手机APP,不仅要求访问手机相册、获取信息和联系人方式,有的还要与银行卡关联。AI之所以在中国可以迅速崛起,某些程度上也受益于此。
隐私风险来自三个环节
进入AI时代,数据搜集及基于数据的分析和机器学习不可避免,在AI应用中必然存在隐私侵犯的风险。一般来说,这些风险主要来自于三个环节:
1.数据采集环节:随着各类AI智能设备的广泛使用,智能系统不仅能通过指纹、心跳等生理特征来辨别身份,还能根据不同人的行为喜好自动调节灯光、室内温度、播放音乐,甚至能通过睡眠时间、锻炼情况、饮食习惯以及体征变化等来判断身体是否健康。然而,这些智能技术的使用就意味着智能系统掌握了个人的大量信息,甚至比自己更了解自己。这些数据如果使用得当,可以提升人类的生活质量,但如果出于商业目的非法使用某些私人信息,就会造成隐私侵犯。
2.云计算环节:因为云计算技术使用便捷、成本低廉,提供了基于共享池实现按需式资源使用的模式,许多公司和政府组织开始将AI大数据存储至云上。将隐私信息存储至云端后,这些信息就容易遭到各种威胁和攻击。由于AI系统普遍对计算能力要求较高,目前在许多AI应用中,云计算已经被配置为主要架构,因此在开发该类智能应用时,云端隐私保护也是人们需要考虑的问题。
3.知识抽取环节:由数据到知识的抽取是人工智能的重要能力,知识抽取工具正在变得越来越强大,无数个看似不相关的数据片段可能被整合在一起,识别出个人行为特征甚至性格特征。例如,只要将网站浏览记录、聊天内容、购物过程和其他各类别记录数据组合在一起,就可以勾勒出某人的行为轨迹,并可分析出个人偏好和行为习惯,从而进一步预测出消费者的潜在需求,商家可提前为消费者提供必要的信息、产品或服务。但是,这些个性化定制过程又伴随着对个人隐私的发现和曝光,如何规范隐私保护是需要与技术应用同步考虑的一个问题。
应对措施
面对着这些隐私风险,面对着日益高涨的公众诉求,政府和企业开始做出了一些实际行动。如亚马逊、微软、谷歌、IBM、Facebook和苹果,联合成立非营利性的人工智能合作组织“Partnership on AI”。该联盟为开发AI系统的公司,提供了一个沟通平台,让各方在一些有可能对全人类,造成巨大损害的问题上,寻求共同点;微软成立了AI伦理委员会“AETHER”,把全公司的产品部门、业务部门,还有更重要的法务部门集合在一起,以讨论和解决AI相关问题;今年6月,谷歌CEO桑德爾·皮查伊(Sundar Pichai)发布了谷歌使用AI的七项原则,提出不会将AI用于监视和收集信息,避免AI造成或加剧社会不公等。
在政府层面,5月25日,欧盟出台了史上最严的公民隐私法案GDPR——《通用数据保护条例》,违规企业最高可能受到2000万欧元或全球营业额4%的罚款;6月底,由公安部牵头制定的《网络安全等级保护条例》(以下简称“条例”)在网上发布,向社会征求意见,行业称之为信息安全规范等保2.0版本。相比《信息安全等级保护管理办法》,“条例”规范的领域更广,不仅针对网络和信息系统,还把云计算、大数据、物联网、AI人工智能等新业态也纳入了监管。
结语
随着技术的发展,AI在人们工作与生活中扮演着越来越多、越来越重要的角色,其所带来的价值无疑是巨大的。例如,它可以大大提高工作效率,替代人们从事某些领域的重复、繁重或危险的工作,让生活更轻松美好等。AI的发展离不开大数据,而数据在获取分析应用中,就存在着用户隐私被泄露和被非法使用的风险。如何保证数据不被泄露、如何在获取数据的同时,利用协议、技术等手段告知和保证用户的数据和隐私安全,尽量做到获取和利用数据与安全的平衡才是关键。
这项名为“Rekognition”的技术使用AI人工智能来识别物体、人物、场景,以及更多的图像或视频,它可以被执法部门用来搜索和识别身份不明的嫌疑犯、没有身份证明的人,以及可能的证人和同谋者。在奥兰多,这项技术被用来在整个城市中使用监控录像来实时搜索“感兴趣的人”。尽管执法部门把它定义为更容易抓捕罪犯的方式,但民权组织担心它可能侵犯隐私权,并被用于针对弱势群体。
在此之前,包括“美国公民自由联盟”在内一些机构和人们曾强烈呼吁:亚马逊应该停止向美国政府提供强大且危险的人脸识别系统-Rekognition,因为这可能会导致美国公民的私人数据被滥用及隐私遭到侵犯。甚至亚马逊的20个股东团体都致信公司首席执行官杰夫·贝佐斯(Jeff Bezos),要求他不要司法部门出售此系统。
虽然目前Rekognition还没有传出泄露用户隐私的消息,但公众的这种担心是有根据的。今年年初“Facebook泄露门事件”,超过5,000万的Facebook用户个人隐私信息被泄露,更为严重的是,这些数据被怀疑干预了政治竞选,造成了公众对于隐私泄露的忧虑与日俱增。前不久,美国媒体又爆出Facebook一件隐私泄露事件。据报道,Facebook会给广告主提供一项特殊服务——忠诚度预测。这是一项基于AI的服务,即预测用户的未来行为,作为广告投放的依据。而“忠诚度预测”依靠的数据有:用户位置、设备信息、所连接Wi-Fi网络的情况、观看的视频记录、亲朋好友的各种细节,甚至是和朋友聊天的内容。这些数据,无疑已经触及到了用户的底线。
在国内,隐私被侵犯的情况更是屡见不鲜。去年9月浙江绍兴警方破获了全国首例利用AI人工智能技术窃取公民个人信息的案件,截获了10亿余组公民个人信息。被警方查封的平台叫做「快啊」,曾经是市场上最大的打码平台。他们在破解、窃取、贩卖和盗用个人信息实施诈骗有着完整的链条,其中人工AI技术运用在识别验证码这个环节。
与欧美国家相比,国内用户的隐私意识相对薄弱,保护隐私的法律也很匮乏,以至于被侵犯还不知觉。比如不少手机APP,不仅要求访问手机相册、获取信息和联系人方式,有的还要与银行卡关联。AI之所以在中国可以迅速崛起,某些程度上也受益于此。
隐私风险来自三个环节
进入AI时代,数据搜集及基于数据的分析和机器学习不可避免,在AI应用中必然存在隐私侵犯的风险。一般来说,这些风险主要来自于三个环节:
1.数据采集环节:随着各类AI智能设备的广泛使用,智能系统不仅能通过指纹、心跳等生理特征来辨别身份,还能根据不同人的行为喜好自动调节灯光、室内温度、播放音乐,甚至能通过睡眠时间、锻炼情况、饮食习惯以及体征变化等来判断身体是否健康。然而,这些智能技术的使用就意味着智能系统掌握了个人的大量信息,甚至比自己更了解自己。这些数据如果使用得当,可以提升人类的生活质量,但如果出于商业目的非法使用某些私人信息,就会造成隐私侵犯。
2.云计算环节:因为云计算技术使用便捷、成本低廉,提供了基于共享池实现按需式资源使用的模式,许多公司和政府组织开始将AI大数据存储至云上。将隐私信息存储至云端后,这些信息就容易遭到各种威胁和攻击。由于AI系统普遍对计算能力要求较高,目前在许多AI应用中,云计算已经被配置为主要架构,因此在开发该类智能应用时,云端隐私保护也是人们需要考虑的问题。
3.知识抽取环节:由数据到知识的抽取是人工智能的重要能力,知识抽取工具正在变得越来越强大,无数个看似不相关的数据片段可能被整合在一起,识别出个人行为特征甚至性格特征。例如,只要将网站浏览记录、聊天内容、购物过程和其他各类别记录数据组合在一起,就可以勾勒出某人的行为轨迹,并可分析出个人偏好和行为习惯,从而进一步预测出消费者的潜在需求,商家可提前为消费者提供必要的信息、产品或服务。但是,这些个性化定制过程又伴随着对个人隐私的发现和曝光,如何规范隐私保护是需要与技术应用同步考虑的一个问题。
应对措施
面对着这些隐私风险,面对着日益高涨的公众诉求,政府和企业开始做出了一些实际行动。如亚马逊、微软、谷歌、IBM、Facebook和苹果,联合成立非营利性的人工智能合作组织“Partnership on AI”。该联盟为开发AI系统的公司,提供了一个沟通平台,让各方在一些有可能对全人类,造成巨大损害的问题上,寻求共同点;微软成立了AI伦理委员会“AETHER”,把全公司的产品部门、业务部门,还有更重要的法务部门集合在一起,以讨论和解决AI相关问题;今年6月,谷歌CEO桑德爾·皮查伊(Sundar Pichai)发布了谷歌使用AI的七项原则,提出不会将AI用于监视和收集信息,避免AI造成或加剧社会不公等。
在政府层面,5月25日,欧盟出台了史上最严的公民隐私法案GDPR——《通用数据保护条例》,违规企业最高可能受到2000万欧元或全球营业额4%的罚款;6月底,由公安部牵头制定的《网络安全等级保护条例》(以下简称“条例”)在网上发布,向社会征求意见,行业称之为信息安全规范等保2.0版本。相比《信息安全等级保护管理办法》,“条例”规范的领域更广,不仅针对网络和信息系统,还把云计算、大数据、物联网、AI人工智能等新业态也纳入了监管。
结语
随着技术的发展,AI在人们工作与生活中扮演着越来越多、越来越重要的角色,其所带来的价值无疑是巨大的。例如,它可以大大提高工作效率,替代人们从事某些领域的重复、繁重或危险的工作,让生活更轻松美好等。AI的发展离不开大数据,而数据在获取分析应用中,就存在着用户隐私被泄露和被非法使用的风险。如何保证数据不被泄露、如何在获取数据的同时,利用协议、技术等手段告知和保证用户的数据和隐私安全,尽量做到获取和利用数据与安全的平衡才是关键。