论文部分内容阅读
我们对带来恐惧感的东西本能地排斥,但有时候喜欢自己吓自己,就像捂住眼睛的小孩儿,一边说“吓死宝宝了”,一边从指头缝里偷看几眼。满足人们对恐惧的需求(帮别人自己吓自己),简直是一门生意——鬼故事古时候就有了,恐怖小说、恐怖片和灾难片,每分每秒都在赚钱。人工智能,AI,像蛇一样满身都是吸引力,是这门生意的好素材,它看起来高深莫测,散发着因为陌生所以可怕的文学气味,既烧脑又虐心,让有精神受虐需求的人欲罢不能。想象未来人类被机器碾压,痛苦地呻吟,就像看恐怖片一样过瘾。
AI生长
人工智能新近的发展似乎显得太快,超出了人们的预期和适应能力。2014年6月7日,正好是阿兰·图灵逝世60周年纪念日,聊天程序“尤金·古斯特曼”有争议地通过了图灵测试。此后宣称通过图灵测试的计算机频频出现。人们普遍相信,计算机模仿人类谈话而不被察觉,彻底实现的一天即使现在还没有到来,也为时不远了。
神经元网络理论、代理控制、深度学习和大数据的进步在不同侧面加强了人工智能,使它在一些特定的任务上打败了人类。特斯拉的联合创始人、CEO马斯克说,计算机比人更适合开车,“当所有的车都知道自己该怎么开的时候,让人来操控两吨重的致命机械太危险了”。理智上我们不得不赞同他,但情感上似乎难以接受——世界的方向盘是否也和汽车的方向盘一样,从此交到了计算机的手里?计算机冷笑一声:“当然是我们来控制世界,连方向盘都不需要。”
波普(K. R. Popper)的话在耳边响起——客观知识的世界,是人类创造的,却是自主的,也会具有创造性。尽管他是在50年前(确切地说是1967年)说这番话的,此刻我们面对人工智能这一存在,“细思恐极”。
强人工智能——会自主行动的机器人,会学习、自我改进、像生物一样进化的机器人是迫在眉睫的现实吗?对人工智能的担心究竟只是精神自虐,还是伴随着符合事实与逻辑的预测?如果是前者,不需要AI恐惧的人可以松一口气,如果是后者,早早想出应对之策才行。
两种恐惧
分析起来,AI恐惧无非两种,可以称为“AI的客观后果恐惧”和“AI的主观意图恐惧”。在两种恐惧之前还有一种失落,因为机器比人能干,未来的电脑可能比人还聪明,人之为人的部分荣誉感被剥夺了。但这种失落很快就能适应,人们早有经验——起重机比人力气大,望远镜比人看得远,计算器比人算得快,飞机还会飞呢。超越人能力局限的东西很多很多,只要它们被人掌握着,就不仅仅是对人能力的超越,而且是对人能力的延伸,能力再大也不用害怕。电脑真比人聪明了,就算有点失落,只要它们为我们所用,听我们安排,总归好处多多。况且“聪明”定义模糊,解微分方程,下棋,电脑都比人厉害,是不是就比人聪明了呢?也不能简单地下结论。
在客观后果一侧,讨论的比较多的是就业问题,担心机器人或者软件把人的工作岗位一批一批地抢走。工业生产不用说,流水线工人是最先被机器人替代的,无人工厂不是什么科幻,而是既成事实。之后是服务业,有餐馆尝试用小型无人机上菜,也有机器快递小哥,各种智能机器发明出来之后,大量留给人的服务岗位就会消失。如果你现在是仓库管理员,或者坐在高速公路入口发卡,赶紧准备下一份工作吧。之后是企业中层,启用各种交流软件和自动工作流程软件,企业内部上传下达的事情少了,启用商业智能软件,辅助决策的参谋岗位也少了。之后是创造性工作,包括媒体工作,做主持人、做研究员、做建筑师,虚拟角色和软件胜任愉快,连写文章、作曲、画画、导致失业不是人工智能负面后果的全部,担心还包括健康问题、非对称战争等等。家里有了机器人服务员,人们衣来伸手饭来张口,只用当一个沙发土豆就可以了。大量无人飞机和机器士兵,改变了战场的伦理——优势一方没有面对活人敌手的心理压力,打起仗来点点鼠标,像打游戏;劣势一方面抵御机器的进攻,连敌人的面都见不着,愤怒的情绪可能导向更多恐怖极端手段,把战火引向敌方非军事人员。
这些对人工智能改变社会的推测大体合乎逻辑,但并不带来太大的困扰。人工智能造成的负面后果会被它带来的好处抵消,人们相信积极影响远远大于消极影响,毕竟危险的、繁重的和乏味的工作由机器人来承担更合适。
在主观意图一侧,AI恐惧的程度会高出几个级别。人们担心的是机器产生压迫人、奴役人、消灭人的意图和行动。尽管这种担心非常严肃,也不见得是杞人忧天,但此刻还不到真正需要恐惧的时候。就像看电影不能代替学物理一样,面对AI发抖也不能代替冷静的分析。确实没有论据证明,只有生物才能产生意识,因此假设机器可能产生意识在科学上是“合法”的,但反过来,证实机器可能产生意识这个假设的论据,现在也还没有出现。何必被一种可能性有多大都不知道的想法吓破胆呢?除非你喜欢这种恐惧感,就像喜欢看鬼片一样。
以“坏”自保
最近有三个“牛人”聊到这个话题。2016年4月,《三体》作者、科幻作家刘慈欣,百度首席科学家吴恩达,对话“未来人工智能20年”。梁冬主持对话,扮演对人工智能的发展忧心忡忡的人。按照“AI的客观后果恐惧”和“AI的主观意图恐惧”分类法梳理三个人的观点,先说主观意图一侧。吴恩达的意见用一句歌词就概括了,“一千年以后……”,他的意思是机器表现得像人一样,成为有意识的物种,还早着呢,究竟会不会也不知道,何必担心?梁冬说,模仿鸟造飞机不成功,人类造出飞行机器其实用了和生物界不同的方案,因此造出思考机器也不必了解人脑,对人脑的无知根本不是人工智能的发展障碍。吴恩达和刘慈欣都表示同意。三位一致认为,如果机器真成了物种,那也是人类的孩子,一开始会模仿父母(即人类)的行为,如果机器变成了坏孩子,人类也没别人可埋怨。刘慈欣说,他特别“相信”人的“坏”,足以防范一个机器物种伤害人类自己。
客观后果一侧,三位都比较乐观。吴恩达说,就算有工作机会被机器拿走了,更多更有趣的工作机会也会出现,而百度大脑、智能汽车、智能教育等等人工智能的成果,未来20年内,就可能改善人类的生活。刘慈欣说,AI在未来成为人类性伴侣将会很常见,这还只是毛毛雨,AI对社会的整体影响被严重低估了。比如说,如果机器接手世界上90%的工作,人们不需要工作也能生存,大学毕业可以退休,那时候,“我如何度过一生”这个问题的背景,和现在的情况将完全不同。
促成人工智能科学家和科幻作家对话,是百度公司“凡尔纳计划”的内容。人类历史上很多新东西,都是科幻作家先写到作品里,之后若干年才被科学家和发明家实现的。按照百度公司的说法,“尖端技术与科幻作家碰撞,让科技更具想象力”。
AI生长
人工智能新近的发展似乎显得太快,超出了人们的预期和适应能力。2014年6月7日,正好是阿兰·图灵逝世60周年纪念日,聊天程序“尤金·古斯特曼”有争议地通过了图灵测试。此后宣称通过图灵测试的计算机频频出现。人们普遍相信,计算机模仿人类谈话而不被察觉,彻底实现的一天即使现在还没有到来,也为时不远了。
神经元网络理论、代理控制、深度学习和大数据的进步在不同侧面加强了人工智能,使它在一些特定的任务上打败了人类。特斯拉的联合创始人、CEO马斯克说,计算机比人更适合开车,“当所有的车都知道自己该怎么开的时候,让人来操控两吨重的致命机械太危险了”。理智上我们不得不赞同他,但情感上似乎难以接受——世界的方向盘是否也和汽车的方向盘一样,从此交到了计算机的手里?计算机冷笑一声:“当然是我们来控制世界,连方向盘都不需要。”
波普(K. R. Popper)的话在耳边响起——客观知识的世界,是人类创造的,却是自主的,也会具有创造性。尽管他是在50年前(确切地说是1967年)说这番话的,此刻我们面对人工智能这一存在,“细思恐极”。
强人工智能——会自主行动的机器人,会学习、自我改进、像生物一样进化的机器人是迫在眉睫的现实吗?对人工智能的担心究竟只是精神自虐,还是伴随着符合事实与逻辑的预测?如果是前者,不需要AI恐惧的人可以松一口气,如果是后者,早早想出应对之策才行。
两种恐惧
分析起来,AI恐惧无非两种,可以称为“AI的客观后果恐惧”和“AI的主观意图恐惧”。在两种恐惧之前还有一种失落,因为机器比人能干,未来的电脑可能比人还聪明,人之为人的部分荣誉感被剥夺了。但这种失落很快就能适应,人们早有经验——起重机比人力气大,望远镜比人看得远,计算器比人算得快,飞机还会飞呢。超越人能力局限的东西很多很多,只要它们被人掌握着,就不仅仅是对人能力的超越,而且是对人能力的延伸,能力再大也不用害怕。电脑真比人聪明了,就算有点失落,只要它们为我们所用,听我们安排,总归好处多多。况且“聪明”定义模糊,解微分方程,下棋,电脑都比人厉害,是不是就比人聪明了呢?也不能简单地下结论。
在客观后果一侧,讨论的比较多的是就业问题,担心机器人或者软件把人的工作岗位一批一批地抢走。工业生产不用说,流水线工人是最先被机器人替代的,无人工厂不是什么科幻,而是既成事实。之后是服务业,有餐馆尝试用小型无人机上菜,也有机器快递小哥,各种智能机器发明出来之后,大量留给人的服务岗位就会消失。如果你现在是仓库管理员,或者坐在高速公路入口发卡,赶紧准备下一份工作吧。之后是企业中层,启用各种交流软件和自动工作流程软件,企业内部上传下达的事情少了,启用商业智能软件,辅助决策的参谋岗位也少了。之后是创造性工作,包括媒体工作,做主持人、做研究员、做建筑师,虚拟角色和软件胜任愉快,连写文章、作曲、画画、导致失业不是人工智能负面后果的全部,担心还包括健康问题、非对称战争等等。家里有了机器人服务员,人们衣来伸手饭来张口,只用当一个沙发土豆就可以了。大量无人飞机和机器士兵,改变了战场的伦理——优势一方没有面对活人敌手的心理压力,打起仗来点点鼠标,像打游戏;劣势一方面抵御机器的进攻,连敌人的面都见不着,愤怒的情绪可能导向更多恐怖极端手段,把战火引向敌方非军事人员。
这些对人工智能改变社会的推测大体合乎逻辑,但并不带来太大的困扰。人工智能造成的负面后果会被它带来的好处抵消,人们相信积极影响远远大于消极影响,毕竟危险的、繁重的和乏味的工作由机器人来承担更合适。
在主观意图一侧,AI恐惧的程度会高出几个级别。人们担心的是机器产生压迫人、奴役人、消灭人的意图和行动。尽管这种担心非常严肃,也不见得是杞人忧天,但此刻还不到真正需要恐惧的时候。就像看电影不能代替学物理一样,面对AI发抖也不能代替冷静的分析。确实没有论据证明,只有生物才能产生意识,因此假设机器可能产生意识在科学上是“合法”的,但反过来,证实机器可能产生意识这个假设的论据,现在也还没有出现。何必被一种可能性有多大都不知道的想法吓破胆呢?除非你喜欢这种恐惧感,就像喜欢看鬼片一样。
以“坏”自保
最近有三个“牛人”聊到这个话题。2016年4月,《三体》作者、科幻作家刘慈欣,百度首席科学家吴恩达,对话“未来人工智能20年”。梁冬主持对话,扮演对人工智能的发展忧心忡忡的人。按照“AI的客观后果恐惧”和“AI的主观意图恐惧”分类法梳理三个人的观点,先说主观意图一侧。吴恩达的意见用一句歌词就概括了,“一千年以后……”,他的意思是机器表现得像人一样,成为有意识的物种,还早着呢,究竟会不会也不知道,何必担心?梁冬说,模仿鸟造飞机不成功,人类造出飞行机器其实用了和生物界不同的方案,因此造出思考机器也不必了解人脑,对人脑的无知根本不是人工智能的发展障碍。吴恩达和刘慈欣都表示同意。三位一致认为,如果机器真成了物种,那也是人类的孩子,一开始会模仿父母(即人类)的行为,如果机器变成了坏孩子,人类也没别人可埋怨。刘慈欣说,他特别“相信”人的“坏”,足以防范一个机器物种伤害人类自己。
客观后果一侧,三位都比较乐观。吴恩达说,就算有工作机会被机器拿走了,更多更有趣的工作机会也会出现,而百度大脑、智能汽车、智能教育等等人工智能的成果,未来20年内,就可能改善人类的生活。刘慈欣说,AI在未来成为人类性伴侣将会很常见,这还只是毛毛雨,AI对社会的整体影响被严重低估了。比如说,如果机器接手世界上90%的工作,人们不需要工作也能生存,大学毕业可以退休,那时候,“我如何度过一生”这个问题的背景,和现在的情况将完全不同。
促成人工智能科学家和科幻作家对话,是百度公司“凡尔纳计划”的内容。人类历史上很多新东西,都是科幻作家先写到作品里,之后若干年才被科学家和发明家实现的。按照百度公司的说法,“尖端技术与科幻作家碰撞,让科技更具想象力”。