论文部分内容阅读
我们的大脑真是不可思议。它是宇宙中我们所知最复杂的事物。但我们又没有理由认为,它不是血肉般的机器,也就是说,我们应该可以建造能够模仿它的机器。
“人工智能”一词最初是在1956年的达特茅斯学会上提出的。从那以后,研究者发展了众多理论和原理,人工智能的概念也随之扩展。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识、心理学和哲学。人工智能是涉及十分广泛的科学,它由不同的领域组成,如机器学习、计算机视觉等等。总的来说,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。例如繁重的科学和工程计算本来是要人脑来承担的,现在计算机不但能完成这种计算,而且能够比人脑做得更快、更准确,因此当代人已不再把这种计算看做是“需要人类智能才能完成的复杂任务”,可见复杂工作的定义是随着时代的发展和技术的进步而变化着的,人工智能这门科学的具体目标也自然随着时代的变化而发展。它一方面不断获得新的进展,另一方面又转向更有意义、更加困难的目标。
所以说,人类层次的人工智能可能不会长久地停留在那样的水平。预计人工智能的智力水平,将会在2050年以前超过人类。几名研究人员甚至认为,可能在下一个十年中,就会发生这样的事情。
我们将第一次不再是这个星球上最聪明的生物。后果可能是惊人的。1993年,数学家、科幻作家弗诺·文奇把这个点(即人工智能的智力水平超过人类大脑的那个时间点)称为“奇点”,因为他把这个点看做将改变世界的转折点。那么,对我们来说,会发生什么事情呢?没有人真正知道。“这就好比蟑螂和狗试图预测人类科技发展的未来。”创建人工智能的开放源码计划的负责人本·戈策尔说。
这并没有阻止人们进行各种各样的猜测。一种灭绝的可能性是,人工智能将消灭我们,如果第一个机器人是从军事实验室孵化出来的,似乎尤其有这种可能性。
牛津大学的物理学家、作家大卫·杜齐提出,避免“凶猛的人工智能灾难”的方法就是,欢迎人工智能进入我们的现存体系。但即使这是可行的,我们又怎样与这些能够全天候不知疲倦地工作、不会生病、速度更快更聪明的生物竞争呢?它们很可能迅速超越我们所有的科学技术和艺术成就。我们的超前创造会很快结束我们万物之灵的地位。
那时,人工智能无论如何将要接管地球。乐观者的一个理由是,它们不会像我们脆弱的人类那样,迷恋于这颗行星。1000年旅行到江波座的£星并不那么令人沮丧,只要你能到达那儿才下太空船。实际上,人工智能宁可离开地球。戈策尔说:
“它们在太空可能工作得更好,那儿气温超冷。”所以,我们没必要为了能源和资源,一定要去与人工智能竞争——打这场不可能赢的战争。有一个星系供它们去移民,把我们留在这个潮湿的小小的行星上,它们会非常满意。它们可能对我们毫无兴趣,就当我们是蚂蚁,或者把地球像一种自然保护区一样进行管理。
这也许看起来像是一个无关紧要的存在,但大多数人因为无知而不会太担心,不像性、毒品和摇滚乐那样长久地受到关注。有些人会继续搞科研、搞艺术,纯粹为了爱好,而不管他们的作品与这些机器的作品比起来多么差劲。
按戈策尔的想法,最佳设计方案可能是,人工智能为那些想继续做人类的人提供一个“人类自然保护区”。给他们一个机会,慢慢转变成超人。“你会想要一种渐变,这样,变化的每一步你仍可以感觉到你自己。”
保留人类或是任其消亡,或是转变成一种几近不朽的超智能——任君选择!
“人工智能”一词最初是在1956年的达特茅斯学会上提出的。从那以后,研究者发展了众多理论和原理,人工智能的概念也随之扩展。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识、心理学和哲学。人工智能是涉及十分广泛的科学,它由不同的领域组成,如机器学习、计算机视觉等等。总的来说,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。例如繁重的科学和工程计算本来是要人脑来承担的,现在计算机不但能完成这种计算,而且能够比人脑做得更快、更准确,因此当代人已不再把这种计算看做是“需要人类智能才能完成的复杂任务”,可见复杂工作的定义是随着时代的发展和技术的进步而变化着的,人工智能这门科学的具体目标也自然随着时代的变化而发展。它一方面不断获得新的进展,另一方面又转向更有意义、更加困难的目标。
所以说,人类层次的人工智能可能不会长久地停留在那样的水平。预计人工智能的智力水平,将会在2050年以前超过人类。几名研究人员甚至认为,可能在下一个十年中,就会发生这样的事情。
我们将第一次不再是这个星球上最聪明的生物。后果可能是惊人的。1993年,数学家、科幻作家弗诺·文奇把这个点(即人工智能的智力水平超过人类大脑的那个时间点)称为“奇点”,因为他把这个点看做将改变世界的转折点。那么,对我们来说,会发生什么事情呢?没有人真正知道。“这就好比蟑螂和狗试图预测人类科技发展的未来。”创建人工智能的开放源码计划的负责人本·戈策尔说。
这并没有阻止人们进行各种各样的猜测。一种灭绝的可能性是,人工智能将消灭我们,如果第一个机器人是从军事实验室孵化出来的,似乎尤其有这种可能性。
牛津大学的物理学家、作家大卫·杜齐提出,避免“凶猛的人工智能灾难”的方法就是,欢迎人工智能进入我们的现存体系。但即使这是可行的,我们又怎样与这些能够全天候不知疲倦地工作、不会生病、速度更快更聪明的生物竞争呢?它们很可能迅速超越我们所有的科学技术和艺术成就。我们的超前创造会很快结束我们万物之灵的地位。
那时,人工智能无论如何将要接管地球。乐观者的一个理由是,它们不会像我们脆弱的人类那样,迷恋于这颗行星。1000年旅行到江波座的£星并不那么令人沮丧,只要你能到达那儿才下太空船。实际上,人工智能宁可离开地球。戈策尔说:
“它们在太空可能工作得更好,那儿气温超冷。”所以,我们没必要为了能源和资源,一定要去与人工智能竞争——打这场不可能赢的战争。有一个星系供它们去移民,把我们留在这个潮湿的小小的行星上,它们会非常满意。它们可能对我们毫无兴趣,就当我们是蚂蚁,或者把地球像一种自然保护区一样进行管理。
这也许看起来像是一个无关紧要的存在,但大多数人因为无知而不会太担心,不像性、毒品和摇滚乐那样长久地受到关注。有些人会继续搞科研、搞艺术,纯粹为了爱好,而不管他们的作品与这些机器的作品比起来多么差劲。
按戈策尔的想法,最佳设计方案可能是,人工智能为那些想继续做人类的人提供一个“人类自然保护区”。给他们一个机会,慢慢转变成超人。“你会想要一种渐变,这样,变化的每一步你仍可以感觉到你自己。”
保留人类或是任其消亡,或是转变成一种几近不朽的超智能——任君选择!