论文部分内容阅读
摘 要: 人工智能作为当今最具前瞻性的高新科学技术,发展遍及社会生活的各个领域,同时也受到社会各界的关注。人工智能为我们的生活提供极大的便捷,人类似乎渴求一个全人工智能时代的到来,准备投入其怀抱。但科学技术的发展从来都是一把双刃剑,我们在享受其便利的同时也应该着眼于人工智能所引发的诸多社会风险,并且考量与分析其可能存在的潜在新风险。人工智能引发的社会风险无外乎可以从人工智能的制造与应用方面来考虑,分析其带来的社会风险,并从相应方面提出规避风险的可能路径。
关键词 :人工智能;社会风险;风险规避;可能路径
一、 人工智能
人工智能简称AI,从科学的角度来看,人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术应用系统的一门科学。[1]1956年美国的达特茅斯会议中约翰·麦卡锡首次提出了 “人工智能”這个术语,标志着“人工智能”概念的诞生,在此后人工智能浪潮不断发展。从“机器学习”到“深度学习”技术鸿沟的跨越,人工智能在一段时间内获得长足性和突破性的发展。人工智能在影响着这个时代,也在改变着这个时代。人工智能在数据挖掘、计算机视觉、专家系统等方面的发展,为企业带来了经济效益,为大众带来了舒适的生活,为国家带来科技的革新,深刻的影响着人类社会的发展。然而,我们享受着人工智能的便捷也不能忽视其带来的负面影响。人工智能对人类主体地位的冲击,对社会伦理的挑战等诸多风险都是我们必须要思考和解决的问题。
二、 人工智能时代的社会风险思考的必要性
在现阶段下的人工智能给我们生活带来了便捷,其负面影响是不可忽视的。研发不透明的黑箱操作,算法主观性带来的伦理问题,一些行业失业等问题,从现实意义上,我们必须对其产生的社会风险加以分析并提出应对措施。在人工智能发展过程中,人工智能是否超过人类智力即奇点是否会出现,一直是学界谈论的热点。奇点是否会出现?奇点出现后的人类社会又会面临什么样的风险,人工智能技术发展可能性决定了我们必须去思考其潜在的风险。所以无论从人工智能的现实性还是可能性来看,关于人工智能时代的社会风险思考都有其必要性。
一、人工智能时代社会风险思考的现实性
人工智能研发是不透明的,人工智能的研发“虚拟化”和研发过程的“黑箱效应”环境,很容易脱离监管而引发失控。同时由于人工智技术研发的特点,研发过程的隐秘性与技术的保密性极易诱发垄断现象。若掌握了人工智能技术核心优势,垄断阴云是极易可能出现的。人工智能技术垄断的阴云一方面会带来技术人才的断层,同时也会加大数字鸿沟。而人工智能技术存在的算法主观性与算法偏差更是诱发社会风险的重要来源。比如谷歌推出的机器人误把两名黑人标注为“大猩猩”,微软公司推出的聊天机器人,在发布24小时内,就成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。[2]在现目前的发展阶段来说,人工智能已经逐步取代大量依靠人力的工作,在一些行业已经实现了自动化,同时人工智能也进军了服务行业。在服务行业,国内的无人酒店与无人超市也已出现,海底捞机器人全程送菜服务。繁重或者危险及简单重复的工作由机器人所替代,纵然人工智能的操控离不开人,但从管理与操控的工作要求来看,劳动力需求量并不高。这一大批依靠劳力的工作者将何去何从?从现实意义上,我们都必须对其产生的社会风险加以深度思考与分析并提出可行的应对措施,促进人工智能健康有序的发展。
二、人工智能时代社会风险思考的可能性
从现实层面上,人工智能已经带来的问题我们必须去面对,与此同时随着人工智能的继续发展,我们也不得不去思考其潜在的风险。其潜在风险的思考主要在于对奇点的预判。美国未来学家、人工智能先驱雷·库兹韦尔在《奇点临近》一书中大胆预言,21世纪50年代左右,奇点会来临,人工智能将超越人类智力。1983年数学家弗诺·文奇,他认为奇点来临后,世界的发展将会脱离人类世界的掌控。人工智能超越人类智力这一天是否会到来,人类又会面临什么样的风险?尽管诸如此类的问题我们没法预判。但是从人工智能的发展来看,人工智能对人类思维的模拟只会走向更精细化、更精密化。对人类社会的发展来说是机遇与挑战并存。而那就意味着我们对人工智能社会风险的研究必须引起重视,必须深入。
对于人工智能的风险研究我们既要解决好当下的风险,又要有防范未来风险的正确进路。
三、 人工智能时代的社会风险思考的重要性
人工智能时代的社会风险思考是从人工智能的现实性与可能性,实践性与理论性层面出发,对其社会风险进行剖析与研究。通过对风险的思考,提出解决风险的治理措施。在理论意义上,丰富了人工智能社会风险研究的内容,在实践层面上,促进人工智能的有序发展,造福人类。人文社会科学研究本来就应该超越自然科学的发展,哲学的预见性,在社会风险还未转变成社会危机时,我们就应该做好充分的相关准备。
四、 人工智能时代的社会风险分析
关于人工智能时代的社会风险研究视角是丰富的。社会风险治理专家唐钧从技术、社会、治理三个视角分析所产生的社会风险并提出应对措施。马长山在分析人工智能的本质上结合法律的视角,提出人工智能引发的五个风险--伦理、极化、异化、规则、责任风险,并从法律层面给出详细的应对措施。也有学者从风险的危害程度视角做出研究。吴汉东则是从人工智能社会风险的特征提出人工智能时代的冷思考,宏观提出人工智能存在的四个问题---法律、伦理、社会、监管。
结合以上研究成果,人工智能时代社会风险可以从两个方面来分析,无外乎在于两个关键点,一为制造方面,二为应用方面。从制造方面来看,一是技术的不完善带来风险,如日本曾经发生过工业机器人在生产过程中将工人放入冲压机之下碾死的惨痛事例。技术制造本身的缺陷而导致风险的产生。二是研发人员的主观性造成的风险,也就是人工智能算法主观性和算法偏差,由于在制造过程中,研发人员的主动裁量权很大。研发人员可能存在种族歧视、性别偏见、宗教偏好、极端价值观等主观偏差,代入研发后算法将出现失误,导致预测不准确、甚至决策不公正等社会问题。同时研发人员的道德伦理底线原则无法兜底,研发人员可能研发出杀人武器甚至反社会反人类的人工智能,进而引发社会伦理和社会安全问题。三是研发技术的垄断,而造成的数字鸿沟,两端极化的的风险。从应用方面来看,社会风险则会涉及到更多的方面,人的主体地位的冲击、社会安全、伦理的风险等等。人工智能的社会风险可以从制造端和应用方面分析,二者也是没法割裂的。综合制造方面和应用方面的分析,人工智能时代的社会风险可以分为社会主体的缺失、社会安全、社会伦理、进而引发社会治理的困境。 (一)社会主体的缺失感
2016年世界经济论坛发布报告:未来五年,人工智能技术的发展将使全球劳动力市场出现颠覆性的变革,全球15个主要国家的就业岗位将会减少710万个,上千人将会面临失业。[3]人工智能使人类从低级的劳务工作中得到解放,提高工作效率,但又给人带来失业的困扰。如果说人工智能引发的失业风险只是作为一个引爆点,那么随着科技发展而可能出现的强人工智能时代即人类将可能会被人工智能代替所引发的冲击感与危机感更加引人深思。当人工智能完全取代了人类的工作,人类获得了解放与自由,但此时人的存在感和主体地位是否会缺失?人类存在和发展的本来意义又在何处?无用阶层会出现吗?或许在强人工智能时代来临之前,我们更需要一场人类自身思想的对话。我们如何正确看待人工智能?我们如何重新定义人的价值与意义?我们如何建构新的人机关系?
(二)社会安全问题的触发
人工智能的发展可能触发社会安全问题。人工智能的社会安全风险从制造到应用都是不可忽视的。制造方面,技术本身安全性的考量。如若存在技术漏洞是非常容易造成风险,如2017年在拉斯维加斯亮相的自动驾驶巴士,却在运行了两个小时,与一辆半挂车产生相撞事故。从应用的方面看引发的安全问题则是个人隐私泄露和国家安全。大数据时代对个人隐私的分析与监测,个人的信息很容易被采集,人类进入一个没有隐私的时代。我们的隐私如何保护?个人隐私安全问题值得重视。人工智能将会成为国家安全领域的颠覆性力量,因为人工智能影响范围是非常广的,人工智能对经济安全、政治安全、军事安全都将产生重要影响。在经济安全方面,在人工智能领域居于核心地位的国家,垄断技术,国家与国家之间的发展更加两极分化。在政治安全方面,使得技术落后的国家在国际战略博弈中长期处于不利地位。在军事安全方面,技术的进步使得战争的门槛降低,技术的进步使得武器的多样化,军事安全更易受到挑战。上述的安全问题的出现,受人工智能的影响,引发国家安全问题。不得不承认人工智能对于社会的进步,但是其进步也给社会带来了安全风险。
三、社会伦理受到挑战
人工智能也让社会伦理受到挑战。一方面,在制造方面,人工智能算法主观性包括算法偏差和算法歧视,由于在制造过程中,研发人员的主动裁量权很大。研发人员可能存在种族歧视、性别偏见、宗教偏好、极端价值观等主观偏差,代入研发后算法将出现失误,导致社会伦理问题的出现。[4]研发人员的道德伦理底线原则无法兜底,研发人员可能研发出杀人武器甚至反社会反人类的人工智能,进而引发社会伦理问题。在应用方面,一些性爱机器人或者伴侣机器人流入市场,人机情感危机的出现我们如何面对?其次,人工智能如果造成人身,财产的损害,谁来承担责任?开发者还是使用者?机器人是否也应享有权利? AI是完全受人类支配吗?我们可以杀死、虐待机器人吗?人工智能的发展,对人类思维的模拟越显高级化,随着自主智能机器人的强大,它可以在社会中扮演什么角色?在法律上又属于什么角色呢?是人? 还是物?还是什么?在人工智能发展的同时需要我们去厘清与解决诸多伦理问题。
四、社会治理出现困境
人工智能所带来的社会主体缺失、社会安全、社会伦理等社会风险如果得不到足够的重视与解决,整个社会治理便会出现困境,人类社会也会因为人工智能的发展走向不可控的局面。所以我们必须提出相应的规避风险措施。
人工智能时代的社会风险规避可能路径也可从人工智能的制造与应用方面出发,结合出现的社会风险提出针对性的规避可能路径。
(一)正确认识人与人工智能的本质关系
人工智能的发展给人带来主体性的缺失感,正确的认识人与人工智能的关系,有助于我们降低所谓的危机感。马克思主义者认為,劳动是人的本质属性,是人主体性的存在[5]。人工智能只能是作为人的创造物,虽然模拟着人的思维,但终究不是人,永远不能成为价值主体,也不能成为目的性的存在。人与人工智能的本质关系是主体与客体的关系。我们要正确看待人与人工智能的本质关系,必须坚持“以人为本”的原则,建立与人工智能共享共存的关系。人工智能作为人对象化的产物,人必须把握好度,从造福人类的角度出发,把控好智能的程度。
(二)建立和完善法律规范与监管制度
在人工智能的制造与应用方面,设立相应的法律法规,来弥补法律的空缺。当前最火爆的人工智能的若干领域,国家应该进行研究,并在必要的时候出台相应的政策文件,包括法律文件。其次,人工智能应设立相应的监管制度,因为人工智能的特殊性,对监管技术也有着高要求,必须相应地提高监管技术。相应的法律规范和监管制度在人工智能的制造和应用方面都将会发挥极大的作用。
(三)完善人工智能伦理制度建设
人工智能伦理制度的建设,能够保证人的主体性与导向作用;能够明确生产者、使用者、管理者的主体责任,保证了人工智能产品的合法应用与正确方向。风险的规避从制造与应用来思考,伦理制度的建设也同样如此。在制造方面从设计伦理出发,应用方面则从应用规范伦理出发,加强完善人工智能伦理制度建设。设计伦理旨在从源头上预判人工智能研发可能带来的风险,即制造端出发。为了减少算法的歧视性和偏差性,算法决策需要遵循程序正义的要求。对于研发人员也应该有相应的学术道德规范要求。应用规范伦理主要是从应用方面出发,针对的是使用的群体。必须要对使用群体进行制度约束和规范,保证其安全性。同时使用群体自身素养的提高也显得十分重要,内化于心,促进和完善人工智能伦理制度的建设。
(四)国际沟通与协作
人工智能时代的社会风险是全球性的,没有地理边界,也没有文化的边界。掌握核心技术的国家,不能各自为营,走向垄断。人工智能发展的力量是具有颠覆性的,在今天这个互联网时代,人工智能的风险是全球性的,没有哪一个国家能独善其身。在面对人工智能社会风险时,我们要打破偏见,冲破垄断的阴云,缩小数字鸿沟。用对话与合作来应对全球性的风险,推动人工智能的完善与发展,推动人类社会的进步。
六、 结语
人工智能的发展为人们的生活带来了舒适,也带来了一定的社会风险。当我们对社会风险进行科学的分析与应对后,促进人工智能研究的完善,但最终的目的更是造福于人类。科学分析与应对风险,让人工智能更好的服务于人类,更好地促进社会的发展。我们对强人工智能时代充满期待,也应做好相应的准备迎接其到来。
参考文献:
[1]李连德.一本书读懂人工智能[M].北京:人民邮电出版社,2016:6.
[2]吴汉东.人工智能时代的冷思考[J].中国报业,2018(03):60-61.
[3]李连德.一本书读懂人工智能[M].北京:人民邮电出版社,2016:233
[4]唐钧.人工智能的社会风险应对研究[J].教学与研究,2019(04):89-97.
[5]冯冬娜.人工智能社会风险及其规避路径[J].经济师,2019(04):8-9.
[6]闫坤如,马少卿.人工智能技术风险规避探析[J].长沙理工大学学报(社会科学版),2019,34(04).
[7]马长山.人工智能的社会风险及其法律规制[J].法律科学(西北政法大学学报),2018,36(06).
[8]杜严勇.人工智能安全问题及其解决进路[J].哲学动态,2016(09).
作者简介:刘自(1998— ),女 ,汉族,四川德阳人, 本科 ,研究方向:思想政治教育。
关键词 :人工智能;社会风险;风险规避;可能路径
一、 人工智能
人工智能简称AI,从科学的角度来看,人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术应用系统的一门科学。[1]1956年美国的达特茅斯会议中约翰·麦卡锡首次提出了 “人工智能”這个术语,标志着“人工智能”概念的诞生,在此后人工智能浪潮不断发展。从“机器学习”到“深度学习”技术鸿沟的跨越,人工智能在一段时间内获得长足性和突破性的发展。人工智能在影响着这个时代,也在改变着这个时代。人工智能在数据挖掘、计算机视觉、专家系统等方面的发展,为企业带来了经济效益,为大众带来了舒适的生活,为国家带来科技的革新,深刻的影响着人类社会的发展。然而,我们享受着人工智能的便捷也不能忽视其带来的负面影响。人工智能对人类主体地位的冲击,对社会伦理的挑战等诸多风险都是我们必须要思考和解决的问题。
二、 人工智能时代的社会风险思考的必要性
在现阶段下的人工智能给我们生活带来了便捷,其负面影响是不可忽视的。研发不透明的黑箱操作,算法主观性带来的伦理问题,一些行业失业等问题,从现实意义上,我们必须对其产生的社会风险加以分析并提出应对措施。在人工智能发展过程中,人工智能是否超过人类智力即奇点是否会出现,一直是学界谈论的热点。奇点是否会出现?奇点出现后的人类社会又会面临什么样的风险,人工智能技术发展可能性决定了我们必须去思考其潜在的风险。所以无论从人工智能的现实性还是可能性来看,关于人工智能时代的社会风险思考都有其必要性。
一、人工智能时代社会风险思考的现实性
人工智能研发是不透明的,人工智能的研发“虚拟化”和研发过程的“黑箱效应”环境,很容易脱离监管而引发失控。同时由于人工智技术研发的特点,研发过程的隐秘性与技术的保密性极易诱发垄断现象。若掌握了人工智能技术核心优势,垄断阴云是极易可能出现的。人工智能技术垄断的阴云一方面会带来技术人才的断层,同时也会加大数字鸿沟。而人工智能技术存在的算法主观性与算法偏差更是诱发社会风险的重要来源。比如谷歌推出的机器人误把两名黑人标注为“大猩猩”,微软公司推出的聊天机器人,在发布24小时内,就成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。[2]在现目前的发展阶段来说,人工智能已经逐步取代大量依靠人力的工作,在一些行业已经实现了自动化,同时人工智能也进军了服务行业。在服务行业,国内的无人酒店与无人超市也已出现,海底捞机器人全程送菜服务。繁重或者危险及简单重复的工作由机器人所替代,纵然人工智能的操控离不开人,但从管理与操控的工作要求来看,劳动力需求量并不高。这一大批依靠劳力的工作者将何去何从?从现实意义上,我们都必须对其产生的社会风险加以深度思考与分析并提出可行的应对措施,促进人工智能健康有序的发展。
二、人工智能时代社会风险思考的可能性
从现实层面上,人工智能已经带来的问题我们必须去面对,与此同时随着人工智能的继续发展,我们也不得不去思考其潜在的风险。其潜在风险的思考主要在于对奇点的预判。美国未来学家、人工智能先驱雷·库兹韦尔在《奇点临近》一书中大胆预言,21世纪50年代左右,奇点会来临,人工智能将超越人类智力。1983年数学家弗诺·文奇,他认为奇点来临后,世界的发展将会脱离人类世界的掌控。人工智能超越人类智力这一天是否会到来,人类又会面临什么样的风险?尽管诸如此类的问题我们没法预判。但是从人工智能的发展来看,人工智能对人类思维的模拟只会走向更精细化、更精密化。对人类社会的发展来说是机遇与挑战并存。而那就意味着我们对人工智能社会风险的研究必须引起重视,必须深入。
对于人工智能的风险研究我们既要解决好当下的风险,又要有防范未来风险的正确进路。
三、 人工智能时代的社会风险思考的重要性
人工智能时代的社会风险思考是从人工智能的现实性与可能性,实践性与理论性层面出发,对其社会风险进行剖析与研究。通过对风险的思考,提出解决风险的治理措施。在理论意义上,丰富了人工智能社会风险研究的内容,在实践层面上,促进人工智能的有序发展,造福人类。人文社会科学研究本来就应该超越自然科学的发展,哲学的预见性,在社会风险还未转变成社会危机时,我们就应该做好充分的相关准备。
四、 人工智能时代的社会风险分析
关于人工智能时代的社会风险研究视角是丰富的。社会风险治理专家唐钧从技术、社会、治理三个视角分析所产生的社会风险并提出应对措施。马长山在分析人工智能的本质上结合法律的视角,提出人工智能引发的五个风险--伦理、极化、异化、规则、责任风险,并从法律层面给出详细的应对措施。也有学者从风险的危害程度视角做出研究。吴汉东则是从人工智能社会风险的特征提出人工智能时代的冷思考,宏观提出人工智能存在的四个问题---法律、伦理、社会、监管。
结合以上研究成果,人工智能时代社会风险可以从两个方面来分析,无外乎在于两个关键点,一为制造方面,二为应用方面。从制造方面来看,一是技术的不完善带来风险,如日本曾经发生过工业机器人在生产过程中将工人放入冲压机之下碾死的惨痛事例。技术制造本身的缺陷而导致风险的产生。二是研发人员的主观性造成的风险,也就是人工智能算法主观性和算法偏差,由于在制造过程中,研发人员的主动裁量权很大。研发人员可能存在种族歧视、性别偏见、宗教偏好、极端价值观等主观偏差,代入研发后算法将出现失误,导致预测不准确、甚至决策不公正等社会问题。同时研发人员的道德伦理底线原则无法兜底,研发人员可能研发出杀人武器甚至反社会反人类的人工智能,进而引发社会伦理和社会安全问题。三是研发技术的垄断,而造成的数字鸿沟,两端极化的的风险。从应用方面来看,社会风险则会涉及到更多的方面,人的主体地位的冲击、社会安全、伦理的风险等等。人工智能的社会风险可以从制造端和应用方面分析,二者也是没法割裂的。综合制造方面和应用方面的分析,人工智能时代的社会风险可以分为社会主体的缺失、社会安全、社会伦理、进而引发社会治理的困境。 (一)社会主体的缺失感
2016年世界经济论坛发布报告:未来五年,人工智能技术的发展将使全球劳动力市场出现颠覆性的变革,全球15个主要国家的就业岗位将会减少710万个,上千人将会面临失业。[3]人工智能使人类从低级的劳务工作中得到解放,提高工作效率,但又给人带来失业的困扰。如果说人工智能引发的失业风险只是作为一个引爆点,那么随着科技发展而可能出现的强人工智能时代即人类将可能会被人工智能代替所引发的冲击感与危机感更加引人深思。当人工智能完全取代了人类的工作,人类获得了解放与自由,但此时人的存在感和主体地位是否会缺失?人类存在和发展的本来意义又在何处?无用阶层会出现吗?或许在强人工智能时代来临之前,我们更需要一场人类自身思想的对话。我们如何正确看待人工智能?我们如何重新定义人的价值与意义?我们如何建构新的人机关系?
(二)社会安全问题的触发
人工智能的发展可能触发社会安全问题。人工智能的社会安全风险从制造到应用都是不可忽视的。制造方面,技术本身安全性的考量。如若存在技术漏洞是非常容易造成风险,如2017年在拉斯维加斯亮相的自动驾驶巴士,却在运行了两个小时,与一辆半挂车产生相撞事故。从应用的方面看引发的安全问题则是个人隐私泄露和国家安全。大数据时代对个人隐私的分析与监测,个人的信息很容易被采集,人类进入一个没有隐私的时代。我们的隐私如何保护?个人隐私安全问题值得重视。人工智能将会成为国家安全领域的颠覆性力量,因为人工智能影响范围是非常广的,人工智能对经济安全、政治安全、军事安全都将产生重要影响。在经济安全方面,在人工智能领域居于核心地位的国家,垄断技术,国家与国家之间的发展更加两极分化。在政治安全方面,使得技术落后的国家在国际战略博弈中长期处于不利地位。在军事安全方面,技术的进步使得战争的门槛降低,技术的进步使得武器的多样化,军事安全更易受到挑战。上述的安全问题的出现,受人工智能的影响,引发国家安全问题。不得不承认人工智能对于社会的进步,但是其进步也给社会带来了安全风险。
三、社会伦理受到挑战
人工智能也让社会伦理受到挑战。一方面,在制造方面,人工智能算法主观性包括算法偏差和算法歧视,由于在制造过程中,研发人员的主动裁量权很大。研发人员可能存在种族歧视、性别偏见、宗教偏好、极端价值观等主观偏差,代入研发后算法将出现失误,导致社会伦理问题的出现。[4]研发人员的道德伦理底线原则无法兜底,研发人员可能研发出杀人武器甚至反社会反人类的人工智能,进而引发社会伦理问题。在应用方面,一些性爱机器人或者伴侣机器人流入市场,人机情感危机的出现我们如何面对?其次,人工智能如果造成人身,财产的损害,谁来承担责任?开发者还是使用者?机器人是否也应享有权利? AI是完全受人类支配吗?我们可以杀死、虐待机器人吗?人工智能的发展,对人类思维的模拟越显高级化,随着自主智能机器人的强大,它可以在社会中扮演什么角色?在法律上又属于什么角色呢?是人? 还是物?还是什么?在人工智能发展的同时需要我们去厘清与解决诸多伦理问题。
四、社会治理出现困境
人工智能所带来的社会主体缺失、社会安全、社会伦理等社会风险如果得不到足够的重视与解决,整个社会治理便会出现困境,人类社会也会因为人工智能的发展走向不可控的局面。所以我们必须提出相应的规避风险措施。
- 人工智能时代的社会风险规避可能路径
人工智能时代的社会风险规避可能路径也可从人工智能的制造与应用方面出发,结合出现的社会风险提出针对性的规避可能路径。
(一)正确认识人与人工智能的本质关系
人工智能的发展给人带来主体性的缺失感,正确的认识人与人工智能的关系,有助于我们降低所谓的危机感。马克思主义者认為,劳动是人的本质属性,是人主体性的存在[5]。人工智能只能是作为人的创造物,虽然模拟着人的思维,但终究不是人,永远不能成为价值主体,也不能成为目的性的存在。人与人工智能的本质关系是主体与客体的关系。我们要正确看待人与人工智能的本质关系,必须坚持“以人为本”的原则,建立与人工智能共享共存的关系。人工智能作为人对象化的产物,人必须把握好度,从造福人类的角度出发,把控好智能的程度。
(二)建立和完善法律规范与监管制度
在人工智能的制造与应用方面,设立相应的法律法规,来弥补法律的空缺。当前最火爆的人工智能的若干领域,国家应该进行研究,并在必要的时候出台相应的政策文件,包括法律文件。其次,人工智能应设立相应的监管制度,因为人工智能的特殊性,对监管技术也有着高要求,必须相应地提高监管技术。相应的法律规范和监管制度在人工智能的制造和应用方面都将会发挥极大的作用。
(三)完善人工智能伦理制度建设
人工智能伦理制度的建设,能够保证人的主体性与导向作用;能够明确生产者、使用者、管理者的主体责任,保证了人工智能产品的合法应用与正确方向。风险的规避从制造与应用来思考,伦理制度的建设也同样如此。在制造方面从设计伦理出发,应用方面则从应用规范伦理出发,加强完善人工智能伦理制度建设。设计伦理旨在从源头上预判人工智能研发可能带来的风险,即制造端出发。为了减少算法的歧视性和偏差性,算法决策需要遵循程序正义的要求。对于研发人员也应该有相应的学术道德规范要求。应用规范伦理主要是从应用方面出发,针对的是使用的群体。必须要对使用群体进行制度约束和规范,保证其安全性。同时使用群体自身素养的提高也显得十分重要,内化于心,促进和完善人工智能伦理制度的建设。
(四)国际沟通与协作
人工智能时代的社会风险是全球性的,没有地理边界,也没有文化的边界。掌握核心技术的国家,不能各自为营,走向垄断。人工智能发展的力量是具有颠覆性的,在今天这个互联网时代,人工智能的风险是全球性的,没有哪一个国家能独善其身。在面对人工智能社会风险时,我们要打破偏见,冲破垄断的阴云,缩小数字鸿沟。用对话与合作来应对全球性的风险,推动人工智能的完善与发展,推动人类社会的进步。
六、 结语
人工智能的发展为人们的生活带来了舒适,也带来了一定的社会风险。当我们对社会风险进行科学的分析与应对后,促进人工智能研究的完善,但最终的目的更是造福于人类。科学分析与应对风险,让人工智能更好的服务于人类,更好地促进社会的发展。我们对强人工智能时代充满期待,也应做好相应的准备迎接其到来。
参考文献:
[1]李连德.一本书读懂人工智能[M].北京:人民邮电出版社,2016:6.
[2]吴汉东.人工智能时代的冷思考[J].中国报业,2018(03):60-61.
[3]李连德.一本书读懂人工智能[M].北京:人民邮电出版社,2016:233
[4]唐钧.人工智能的社会风险应对研究[J].教学与研究,2019(04):89-97.
[5]冯冬娜.人工智能社会风险及其规避路径[J].经济师,2019(04):8-9.
[6]闫坤如,马少卿.人工智能技术风险规避探析[J].长沙理工大学学报(社会科学版),2019,34(04).
[7]马长山.人工智能的社会风险及其法律规制[J].法律科学(西北政法大学学报),2018,36(06).
[8]杜严勇.人工智能安全问题及其解决进路[J].哲学动态,2016(09).
作者简介:刘自(1998— ),女 ,汉族,四川德阳人, 本科 ,研究方向:思想政治教育。