论文部分内容阅读
近几年,人工智能(AI)不断被玩出新花样,例如当起法官的AI,抢了福尔摩斯和医生饭碗的AI……AI已经渗透进人类生活的方方面面,以至于现在许多职业都担心将来被AI取代。
然而,祸兮福所倚,AI在给人们带来便利的同时,也可能引发灾难。美国麻省理工学院媒体实验室新开发出的“精神变态”AI诺曼,引出人工智能领域急需面对的难题——AI很可能会走上邪路。
精神变态的AI诺曼
诺曼是一个能够理解图片并用文字表达的智能算法,与阿尔弗雷德·希区柯克执导的恐怖电影《惊魂记》中男主人公诺曼·贝茨同名,也像这部电影的同名主人公一样,AI诺曼的“内心”是阴暗的。科学家让诺曼和其他AI一同参加罗夏墨迹测验(通过向被试者呈现标准化的由墨渍偶然形成的模样,并让其说出由此联想到的东西,进而分析被试者人格),诺曼给出了与其他AI完全不一样的答案。例如图1,其他AI联想到一群鸟儿坐在树枝上的美好画面,而诺曼却给出一名男子被电击致死的惊人答案;再如图2,别的AI看着像花瓶与花的特写,诺曼却联想到一名男子被枪杀的画面。测验的图片还有很多,但是诺曼无一例外都从中看到了血液、死亡和事物的毁灭。
“内心”阴暗的诺曼令人感到不安,有些人甚至对科学家为何创造这样的AI提出质疑。当然,创造诺曼的目的不是为了威吓人类,而是要让大家重视一件事,用于训练AI的数据会对其行为造成重大影响,变态的数据也就导致了精神变态的诺曼。诺曼的开发团队给诺曼输入的数据,大多是从美国一家社交新闻网站上挑选的,内容大多与死亡、尸体等有关。而反观与诺曼一同参与罗夏墨迹测验的AI,此前它接受的都是与动物、人类等相关的正面数据。
诺曼开发团队成员之一的伊亚德教授指出,诺曼如此阴暗的“想法”说明机器人学习正处于一个严峻的局面,数据选择比算法更重要,我们用来训练AI的数据会在它的“思想”和行为方式上体现出来。
有偏见的AI
由于诺曼接收的数据都与死亡和破坏有关,所以它的认知里充满了阴暗。如果生活中的AI被输入了带有偏见的数据,那么它也会变得有偏见。
2016年,微软公司在社交媒体上发布聊天机器人Tay,受种族主义者和一些搬弄是非言论的影响,机器人Tay捍卫白人至上主义,倡导种族屠杀并表现出对希特勒的喜爱。2017年5月的一份报道指出,美国法院用于风险评估的AI生成计算机程序对黑人囚犯有偏见,认为黑人罪犯的再犯率是白人的两倍。美国使用的预测性警务算法也存在類似的偏见。此外,还有研究表明,接收谷歌资讯的AI拥有了性别歧视的观念,例如,当被问到“男人是电脑程序员,就像女人是什么职业”这个问题时,AI给出的答案是“家庭主妇”。
如此看来,诺曼似乎不是唯一一个容易受到不良信息影响的AI,而种族主义同样存在于人工智能的“思想”中。因为AI被输入一些有偏见的信息和历史犯罪数据,才会导致这样的结果。
发现问题,迎难而上
英国巴斯大学计算机科学系的乔安娜·布莱森教授表示,机器对事物的看法往往会和其制造者的看法保持一致。在我们怀疑AI的可靠性和安全性之前,首先要了解它们的工作机制。我们用教育人类的方式教育机器人,当制造者用自己所知的信息去训练AI时,也必然会给它输入一些较为片面的看法或观点,那么机器人也可能像人类一样会犯错、有偏见。
AI会出现性别歧视可能是因为其编程人员主要是来自加州的白人单身汉,其中有些人带有性别歧视。这个问题或许可以通过提高员工多样性适当解决。
布莱森教授还指出,没有任何数学方法可以创造一个能实现完全公平的AI,偏见在学习过程中也不算坏事,这意味着AI正在学习事物发展的规律。真正令人担心的是,有些程序员会故意给机器输入带有偏见的信息,教唆它变坏。为了避免这种情况,布莱森教授认为应提高AI创建过程的监督力度和透明度。
诺曼开发团队的伊亚德教授则指出,诺曼的情况确实说明了程序员急需想办法解决数据缺陷的问题,AI仍有很多东西需要学习和改进,但是管理机器人学习的重任不应只落在程序员肩上。随着机器人逐渐渗透进人们生活的方方面面,人类将能更好的发现并消除机器人输入数据中的偏见。其实,某些人类行为研究方法同样适用于机器人,就像对人类采用心理干预手段一样,科学家开始对正在开发的AI系统进行定期审核。在我们不断发现问题的同时,也代表着我们离完善AI更近一步。
然而,祸兮福所倚,AI在给人们带来便利的同时,也可能引发灾难。美国麻省理工学院媒体实验室新开发出的“精神变态”AI诺曼,引出人工智能领域急需面对的难题——AI很可能会走上邪路。
精神变态的AI诺曼
诺曼是一个能够理解图片并用文字表达的智能算法,与阿尔弗雷德·希区柯克执导的恐怖电影《惊魂记》中男主人公诺曼·贝茨同名,也像这部电影的同名主人公一样,AI诺曼的“内心”是阴暗的。科学家让诺曼和其他AI一同参加罗夏墨迹测验(通过向被试者呈现标准化的由墨渍偶然形成的模样,并让其说出由此联想到的东西,进而分析被试者人格),诺曼给出了与其他AI完全不一样的答案。例如图1,其他AI联想到一群鸟儿坐在树枝上的美好画面,而诺曼却给出一名男子被电击致死的惊人答案;再如图2,别的AI看着像花瓶与花的特写,诺曼却联想到一名男子被枪杀的画面。测验的图片还有很多,但是诺曼无一例外都从中看到了血液、死亡和事物的毁灭。
“内心”阴暗的诺曼令人感到不安,有些人甚至对科学家为何创造这样的AI提出质疑。当然,创造诺曼的目的不是为了威吓人类,而是要让大家重视一件事,用于训练AI的数据会对其行为造成重大影响,变态的数据也就导致了精神变态的诺曼。诺曼的开发团队给诺曼输入的数据,大多是从美国一家社交新闻网站上挑选的,内容大多与死亡、尸体等有关。而反观与诺曼一同参与罗夏墨迹测验的AI,此前它接受的都是与动物、人类等相关的正面数据。
诺曼开发团队成员之一的伊亚德教授指出,诺曼如此阴暗的“想法”说明机器人学习正处于一个严峻的局面,数据选择比算法更重要,我们用来训练AI的数据会在它的“思想”和行为方式上体现出来。
有偏见的AI
由于诺曼接收的数据都与死亡和破坏有关,所以它的认知里充满了阴暗。如果生活中的AI被输入了带有偏见的数据,那么它也会变得有偏见。
2016年,微软公司在社交媒体上发布聊天机器人Tay,受种族主义者和一些搬弄是非言论的影响,机器人Tay捍卫白人至上主义,倡导种族屠杀并表现出对希特勒的喜爱。2017年5月的一份报道指出,美国法院用于风险评估的AI生成计算机程序对黑人囚犯有偏见,认为黑人罪犯的再犯率是白人的两倍。美国使用的预测性警务算法也存在類似的偏见。此外,还有研究表明,接收谷歌资讯的AI拥有了性别歧视的观念,例如,当被问到“男人是电脑程序员,就像女人是什么职业”这个问题时,AI给出的答案是“家庭主妇”。
如此看来,诺曼似乎不是唯一一个容易受到不良信息影响的AI,而种族主义同样存在于人工智能的“思想”中。因为AI被输入一些有偏见的信息和历史犯罪数据,才会导致这样的结果。
发现问题,迎难而上
英国巴斯大学计算机科学系的乔安娜·布莱森教授表示,机器对事物的看法往往会和其制造者的看法保持一致。在我们怀疑AI的可靠性和安全性之前,首先要了解它们的工作机制。我们用教育人类的方式教育机器人,当制造者用自己所知的信息去训练AI时,也必然会给它输入一些较为片面的看法或观点,那么机器人也可能像人类一样会犯错、有偏见。
AI会出现性别歧视可能是因为其编程人员主要是来自加州的白人单身汉,其中有些人带有性别歧视。这个问题或许可以通过提高员工多样性适当解决。
布莱森教授还指出,没有任何数学方法可以创造一个能实现完全公平的AI,偏见在学习过程中也不算坏事,这意味着AI正在学习事物发展的规律。真正令人担心的是,有些程序员会故意给机器输入带有偏见的信息,教唆它变坏。为了避免这种情况,布莱森教授认为应提高AI创建过程的监督力度和透明度。
诺曼开发团队的伊亚德教授则指出,诺曼的情况确实说明了程序员急需想办法解决数据缺陷的问题,AI仍有很多东西需要学习和改进,但是管理机器人学习的重任不应只落在程序员肩上。随着机器人逐渐渗透进人们生活的方方面面,人类将能更好的发现并消除机器人输入数据中的偏见。其实,某些人类行为研究方法同样适用于机器人,就像对人类采用心理干预手段一样,科学家开始对正在开发的AI系统进行定期审核。在我们不断发现问题的同时,也代表着我们离完善AI更近一步。