论文部分内容阅读
人工智能自从问世以来,一直被当作提升人类生活质量的技术工具。各类语音助手、机器人更是被视作陪伴者或者朋友。而这一切正是得益于人类对未知领域和未来科技的好奇与探索。
但如今,出现了一则反例。麻省理工学院媒体实验室的研究人员开发出了世界上第一个“精神变态”的人工智能“诺曼”。“诺曼”的出现让许多原本就對人工智能感到不安的人更加惶恐,AI的暗黑面是不是马上就会出现了呢?
在著名的透射法人格测试罗夏墨迹测验当中,受试者会通过一定的媒介建立起自己的想象世界,从而得到一些个性化的答案。通过与普通AI一起测试,“诺曼”的阴暗尽显无遗。
当普通AI得出一群鸟坐在树枝上的答案时,“诺曼”看到的是一名男子触电身亡;当普通AI看到几个男人站在一起时,“诺曼”看到的是一个男人从窗户跳下来……在测试当中的每一题,普通AI分别给出的都是较为常态或乐观的答案,“诺曼”的答案则是偏向冲突性的。
根据“诺曼”项目的官网显示,“诺曼”的主要作用是执行图像字幕处理,这是一种生成图像描述文字的深度学习方法。“诺曼如此黑暗的反应,正好说明了机器学习还面临着许多残酷的现实。”研究成员之一的Iyad Rahwan教授说道。
而事实上,实验室的研究人员是通过让“诺曼”从Reddit上大量学习恐怖血腥的人类死亡图片,从而使“诺曼”成为了一个精神变态人工智能。这并不是为了哗众取宠或者是危言耸听,研究人员通过这一实验想要告诉大众的是,人工智能如果经过不良数据的训练,是完全有可能变坏的。而这些错误的引导,最终损害的也是人类的利益。
根据去年5月的一份报告显示,美国法院用AI生成的风险评估计算机程序,对黑人囚犯存在偏见。该AI系统认为,黑人重新犯罪的可能性是白人的两倍。对此,“诺曼”实验的研究人员表示,用有缺陷的数据对AI进行训练,完全有可能使得其存在偏见。
“诺曼”虽然是第一个拥有黑暗面的变态AI,但却不是第一个引起人们恐慌的AI。2016年,微软的聊天机器人Tay在推特上发布时,也出现了令人不安的一幕。Tay原本设定是19岁的清纯少女,但上线几天之后,便受到种族主义者的感染,也开始带有强烈种族歧视。
“人工智能身上所发生的歧视问题可以归结到一个事实上:很多机器人都是由加利福利亚的单身白人开发的。”巴斯大学计算机科学系的Joanna Bryson博士说道,“当我们用自己选择的文化来训练机器时,或多或少会将自己的偏见转移到人工智能上。”
人工智能自出现以来,就有人不断提出质疑。物理学家霍金就曾多次发表“人工智能可能会毁灭人类”的言论,马斯克也说过“人工智能可能成为永久的独裁者”。但通过以上案例的结果来看,无论是“诺曼”还是Tay,都会在机器学习的过程中受到数据的影响,从而变得让人不安。
因此,为了阻止这类情况发生,创建AI的过程中需要更多的监督和更大的透明度。工程师应该找到一种能够平衡数据的方法,而不断扩展机器学习内容的任务也不能仅仅交给程序员。就像微软前首席构想官Dave Coplin所说,“诺曼对于许多越来越依赖人工智能的人和企业来说,是一次重要的实验,让他们了解和认识到其中的风险。”
也正如“诺曼”实验的官网所描述,当人们谈论人工智能算法存在偏见与不公时,罪魁祸首往往不是算法本身,而是它的数据。因此对于AI的监管,其实也是推动AI朝着良性方向发展的有效措施。在发展的过程中,即便会出现诸如“诺曼”、Tay这类不可预知的黑暗面,但却能让人类更快意识到对AI进行监管的重要性。
但如今,出现了一则反例。麻省理工学院媒体实验室的研究人员开发出了世界上第一个“精神变态”的人工智能“诺曼”。“诺曼”的出现让许多原本就對人工智能感到不安的人更加惶恐,AI的暗黑面是不是马上就会出现了呢?
在著名的透射法人格测试罗夏墨迹测验当中,受试者会通过一定的媒介建立起自己的想象世界,从而得到一些个性化的答案。通过与普通AI一起测试,“诺曼”的阴暗尽显无遗。
当普通AI得出一群鸟坐在树枝上的答案时,“诺曼”看到的是一名男子触电身亡;当普通AI看到几个男人站在一起时,“诺曼”看到的是一个男人从窗户跳下来……在测试当中的每一题,普通AI分别给出的都是较为常态或乐观的答案,“诺曼”的答案则是偏向冲突性的。
根据“诺曼”项目的官网显示,“诺曼”的主要作用是执行图像字幕处理,这是一种生成图像描述文字的深度学习方法。“诺曼如此黑暗的反应,正好说明了机器学习还面临着许多残酷的现实。”研究成员之一的Iyad Rahwan教授说道。
而事实上,实验室的研究人员是通过让“诺曼”从Reddit上大量学习恐怖血腥的人类死亡图片,从而使“诺曼”成为了一个精神变态人工智能。这并不是为了哗众取宠或者是危言耸听,研究人员通过这一实验想要告诉大众的是,人工智能如果经过不良数据的训练,是完全有可能变坏的。而这些错误的引导,最终损害的也是人类的利益。
根据去年5月的一份报告显示,美国法院用AI生成的风险评估计算机程序,对黑人囚犯存在偏见。该AI系统认为,黑人重新犯罪的可能性是白人的两倍。对此,“诺曼”实验的研究人员表示,用有缺陷的数据对AI进行训练,完全有可能使得其存在偏见。
“诺曼”虽然是第一个拥有黑暗面的变态AI,但却不是第一个引起人们恐慌的AI。2016年,微软的聊天机器人Tay在推特上发布时,也出现了令人不安的一幕。Tay原本设定是19岁的清纯少女,但上线几天之后,便受到种族主义者的感染,也开始带有强烈种族歧视。
“人工智能身上所发生的歧视问题可以归结到一个事实上:很多机器人都是由加利福利亚的单身白人开发的。”巴斯大学计算机科学系的Joanna Bryson博士说道,“当我们用自己选择的文化来训练机器时,或多或少会将自己的偏见转移到人工智能上。”
人工智能自出现以来,就有人不断提出质疑。物理学家霍金就曾多次发表“人工智能可能会毁灭人类”的言论,马斯克也说过“人工智能可能成为永久的独裁者”。但通过以上案例的结果来看,无论是“诺曼”还是Tay,都会在机器学习的过程中受到数据的影响,从而变得让人不安。
因此,为了阻止这类情况发生,创建AI的过程中需要更多的监督和更大的透明度。工程师应该找到一种能够平衡数据的方法,而不断扩展机器学习内容的任务也不能仅仅交给程序员。就像微软前首席构想官Dave Coplin所说,“诺曼对于许多越来越依赖人工智能的人和企业来说,是一次重要的实验,让他们了解和认识到其中的风险。”
也正如“诺曼”实验的官网所描述,当人们谈论人工智能算法存在偏见与不公时,罪魁祸首往往不是算法本身,而是它的数据。因此对于AI的监管,其实也是推动AI朝着良性方向发展的有效措施。在发展的过程中,即便会出现诸如“诺曼”、Tay这类不可预知的黑暗面,但却能让人类更快意识到对AI进行监管的重要性。