论文部分内容阅读
摘 要:在过去的60年中,人工智能在算法、算力和数据的共同驱动下取得了飞速发展,但仍处于人工智能薄弱的阶段。从分析人工智能算法和计算能力的基础研究的現状和发展趋势着眼,从弱人工智能到强人工智能的发展迫切需要基础研究的革命性突破。在算法级别,深度学习算法模型缺乏可解释性和可概括性。它遇到了基础理论的瓶颈,迫切需要基础理论的突破。在计算能力级别上,由于采用了集成电路工艺和微物理极限,摩尔定律无效。电子芯片的计算能力的增长已放缓,并且通用计算芯片的体系结构受到冯诺依曼瓶颈的制约。以神经形态芯片为代表的人工智能芯片方兴未艾。在数据层面,细分领域缺乏高质量的数据集,制约了人工智能技术应用的发展,未来将继续构建高质量的数据集。简而言之,人工智能的基础技术在未来很长一段时间内将缓慢发展,但是工业应用正在蓬勃发展。
关键词:基础;人工智能技术;发展前景
一、引言
人工智能是一个复杂的技术系统,已发展到计算机技术的高级阶段,该系统集成了计算机、数学、逻辑、信息论、控制论、认知科学和伦理学等多个学科。人工智能是在1956年在达特茅斯学院的一次学术会议上提出的,可以分为3个发展阶段:弱人工智能、强人工智能和超级人工智能。ANI是在有限条件下的人工智能。目前掌握的人工智能技术、基金项目,也就是重点行业应用的人工智能数据安全监管与服务平台建设,它是没有理解和推理的感知智力。AGI是能够理解和推理,并且具有感知和自我意识的解决问题的机器智能,属于认知智能。在几乎所有领域中,ASI是比最聪明的人脑更聪明的机器智能,并且是人工智能技术开发的最终目标。
在过去的60年中,算法、算力和数据3个基石共同推动了人工智能技术的飞速发展。本文概述了弱人工智能的发展过程,即初始时期、知识驱动时期和数据驱动时期。它着眼于前沿基础研究的进展以及算法和计算能力所面临的挑战,并阐明了数据驱动时期大数据对人工智能的影响。最后从算法、计算能力、数据集和工业应用4个方面分析了人工智能技术的发展趋势。
二、人工智能的发展历程
(一)初始时期
在该时期,人工智能的概念和相关的基础理论开始创新发展。最初的尝试用软件来模仿人类智能的尝试,例如知识表达,文本计算,简单的神经元模型,模糊集理论和学习算法,都受到算法,计算能力的限制。由于缺乏数据,许多理论尚未实现,但是它们为人工智能的快速发展奠定了理论基础。
(二)知识驱动时期
在该时期,已采用基于符号、逻辑和规则的知识驱动方法来开发智能专家系统。该系统集成了专业知识库、经验和专家决策。在不同领域有大量的专家系统可以获取应用程序,如化学、电子、工程、医学和过程控制等。
(三)数据驱动时期
在该时期,采用了以“深度学习+大数据”为特征的数据驱动方法,并取得了突破性的成就。标志性事件:深蓝在1997年击败了世界象棋冠军卡斯帕罗夫。在语音识别和图像识别中采用数据驱动方法取得了突破性进展。
三、人工智能算法
人工智能复杂技术系统的核心是人工智能算法。该算法本质上是一组数学理论。例如,深度学习和贝叶斯算法的基础模型涉及高级数学、统计学和概率论。
从知识驱动到数据驱动,人工智能本质上是从知识编码到机器学习和深度学习的理论范式的突破性变化,它在过去的20年中引发了人工智能技术的蓬勃发展。人工智能机器学习本质上是通过数学统计和概率对人类思维过程的近似描述。它经历了3项突破性的发展:1950年代提出了神经网络原型感知器,1980年代提出了浅层传感器神经网络算法。151然后,以深度学习为代表的高复杂度算法自2006年以来爆炸式增长。
深度学习是机器学习中基于大规模数据的表示学习算法,可以从海量数据中学习高级功能。在互联网爆炸带来的计算能力和大数据呈指数增长的全面支持下,深度神经网络已在多个领域逐步取得突破,为当前在计算机视觉、语音识别、自然语言处理和其他人工智能方面的深度学习奠定了基础核心领域的统治。
深度学习在图像和语音领域非常成熟,自然语言处理仍然面临许多挑战。近年来,NLP领域深度学习的主要进展是Google基于变压器的双向编码器表示。首先,将大量未标记的语料库用于模型预训练学习,然后使用少量的标记的语料库进行微调以完成分类、序列标记和句子间句法。关系判断和机器阅读理解等任务。BERT模型在许多自然语言理解任务上具有出色的性能,但是由于其深厚的网络结构和大量的参数,工程实现的计算能力非常大。
深度学习和其他学习方法形成一个组合模型:深度强化学习、深度转移学习、人工规则和神经网络的组合以及图和卷积神经网络的组合。分布式深度学习的最新进展是莱斯大学的研究人员与亚马逊合作提出的MACH算法。该算法将模型中的10亿个参数划分为几个级别,然后对其进行重新分类,从而大大减少了单个搜索的次数,从而大大减少了培训时间和内存使用量,并且在大型数据库中的检索将更加高效。
迁移学习将训练后的模型从源任务转移到目标任务,以帮助目标任务解决训练样本不足的问题。深度迁移学习具有深度学习和迁移学习的优势,主要分为四类:基于示例、映射、网络和对抗的深度迁移学习。数据标记非常耗时且费力,如标记语义分段图。相关学者提出了一种自动标记图像的方法,可以自动生成多边形以标记图像中的对象。它使用卷积神经网络提取图像特征,然后使用递归神经网络对多边形的顶点进行解码,最后通过评估网络从候选对象中选择最佳模型。深度森林算法模型打破了深度学习技术中深度神经网络模型的垄断。它还具有逐层处理、内置特征变化和模型复杂度高的特点,在非法现金检测应用中取得了良好的效果。
综合分析人工智能的当前基础研究现状,算法模型的未来发展趋势是自动化、组合、轻量化、泛化和探索新的深度模型。当前,学术界和工业界正在将大部分资源投入到现有深度学习算法的改进和应用扩展中,而对基础理论研究的关注不足。尽管各种深度学习算法仍在研究和改进中,但它们都面临基础理论的瓶颈,尤其是黑盒问题,泛化性差和深度学习稳定性不足。强大的人工智能之路仍然遥遥无期。基本算法模型的未来突破提供两种技术途径:一个是神经科学的重大发现;另一个是知识驱动和数据驱动方法的结合。第一条技术路线比较困难,但前景更广阔。因此,各国将神经研究计划列为国家战略,并将神经的基础研究视为竞争全球人工智能技术和产业发展制高点的关键。 四、人工智能算法的算力分析
(一)算力与算法的关系
盡管人工智能的基本理论在早期得到了蓬勃发展,但芯片的计算能力不足限制了人工神经网络的发展。在1980年,计算能力与早期相比增加了大约两个数量级,这只能支持浅层神经网络模型的实现。在21世纪之后,与早期相比,计算能力发生了质的变化,并且已经实现了深度神经网络等高复杂度算法。因此,在计算能力和人工智能算法的不断发展中,计算能力和算法相辅相成,计算能力既促进又制约着算法。
(二)通用电子芯片的发展
目前,使用CMOS技术生产通用电子芯片。在商业上,5nm工艺已实现批量生产。随着晶体管的尺寸逼近物理极限,电子芯片技术进入了后摩尔时代。通过减小晶体管的尺寸来增加集成密度的方法是不可持续的。通用电子芯片开发的主要技术路线是:新工艺、新材料和新物理原理。新工艺的杰出代表是先进包装技术的不断创新和发展。随着摩尔定律的放慢,先进的封装技术已成为电子产品小型化、多功能、低功耗和高带宽的核心手段。它正在向集成、高速、高频和三个方向发展。三维封装技术的本质是将多个高带宽存储芯片与CPU、GPU、FPCA和其他处理器垂直堆叠在三维空间中,以减少彼此的传输路径,加快计算速度并提高整体计算效率。
五、人工智能发展的前景
短期内,算法模型的发展趋势是自动化、组合、轻量、通用和新的深度模型、例如,在AlphaGo上成功实现深度增强模型以及使用训练数据增强。深度转移学习在一定程度上缓解了培训数据不足的困境;自动机器学习尝试逐步使机器学习中的部分或全部过程自动化。深林是一种新型的深度网络模型,它打破了深度神经网络在深度学习技术中的垄断地位。从长远来看,算法模型基础理论的突破很可能来自神经科学和认知科学等基础研究领域的革命性突破。
大量的大样本训练时间长,计算成本高,可解释性差和稳定性差。深度学习网络模型使用概率和统计方法通过逐层特征转换自动学习数据样本的特征,但是样本的利用率较低,在现阶段无法通过很少的学习样品像人。未来,深度学习技术将不仅依赖于速率统计方法,还将与知识规则驱动的方法相集成。小数据样本培训是未来的重要发展方向。随着大数据、5G、物联网和云端计算的飞速发展,基于深度学习网络的人工智能技术的应用领域越来越广泛,在计算机视觉、语音识别、自然语言处理、机器翻译等领域与路径规划其他技术领域将继续深入探索,并将在安全、金融、运输、教育、医疗和能源等多个应用领域中广泛工业化。
结语
在算法、算力和数据的驱动下,人工智能正进入由深度学习技术引领的发展浪潮。尽管算法的基础理论存在瓶颈,但人工智能的工业应用仍在不断发展。
参考文献:
[1]谢宗仁,冯伟,耿奎.综合集成研讨厅研究现状及其在人工智能时代的发展机遇[J].科技管理研究,2020(16):39-45.
[2]尹洁.弱道德人工智能可行吗——从精神医学用途到道德增强[J].医学与哲学,2020(13):1-7,13.
[3]赵晶,曹易.风景园林研究中的人工智能方法综述[J].中国园林,2020(5):82-87.
[4]陈舒,倪民军.大数据与人工智能在行业中的发展——以会计行业为例[J].商业会计,2020(7):124-126.
武汉商贸职业学院 刘 欢 吴 芬
关键词:基础;人工智能技术;发展前景
一、引言
人工智能是一个复杂的技术系统,已发展到计算机技术的高级阶段,该系统集成了计算机、数学、逻辑、信息论、控制论、认知科学和伦理学等多个学科。人工智能是在1956年在达特茅斯学院的一次学术会议上提出的,可以分为3个发展阶段:弱人工智能、强人工智能和超级人工智能。ANI是在有限条件下的人工智能。目前掌握的人工智能技术、基金项目,也就是重点行业应用的人工智能数据安全监管与服务平台建设,它是没有理解和推理的感知智力。AGI是能够理解和推理,并且具有感知和自我意识的解决问题的机器智能,属于认知智能。在几乎所有领域中,ASI是比最聪明的人脑更聪明的机器智能,并且是人工智能技术开发的最终目标。
在过去的60年中,算法、算力和数据3个基石共同推动了人工智能技术的飞速发展。本文概述了弱人工智能的发展过程,即初始时期、知识驱动时期和数据驱动时期。它着眼于前沿基础研究的进展以及算法和计算能力所面临的挑战,并阐明了数据驱动时期大数据对人工智能的影响。最后从算法、计算能力、数据集和工业应用4个方面分析了人工智能技术的发展趋势。
二、人工智能的发展历程
(一)初始时期
在该时期,人工智能的概念和相关的基础理论开始创新发展。最初的尝试用软件来模仿人类智能的尝试,例如知识表达,文本计算,简单的神经元模型,模糊集理论和学习算法,都受到算法,计算能力的限制。由于缺乏数据,许多理论尚未实现,但是它们为人工智能的快速发展奠定了理论基础。
(二)知识驱动时期
在该时期,已采用基于符号、逻辑和规则的知识驱动方法来开发智能专家系统。该系统集成了专业知识库、经验和专家决策。在不同领域有大量的专家系统可以获取应用程序,如化学、电子、工程、医学和过程控制等。
(三)数据驱动时期
在该时期,采用了以“深度学习+大数据”为特征的数据驱动方法,并取得了突破性的成就。标志性事件:深蓝在1997年击败了世界象棋冠军卡斯帕罗夫。在语音识别和图像识别中采用数据驱动方法取得了突破性进展。
三、人工智能算法
人工智能复杂技术系统的核心是人工智能算法。该算法本质上是一组数学理论。例如,深度学习和贝叶斯算法的基础模型涉及高级数学、统计学和概率论。
从知识驱动到数据驱动,人工智能本质上是从知识编码到机器学习和深度学习的理论范式的突破性变化,它在过去的20年中引发了人工智能技术的蓬勃发展。人工智能机器学习本质上是通过数学统计和概率对人类思维过程的近似描述。它经历了3项突破性的发展:1950年代提出了神经网络原型感知器,1980年代提出了浅层传感器神经网络算法。151然后,以深度学习为代表的高复杂度算法自2006年以来爆炸式增长。
深度学习是机器学习中基于大规模数据的表示学习算法,可以从海量数据中学习高级功能。在互联网爆炸带来的计算能力和大数据呈指数增长的全面支持下,深度神经网络已在多个领域逐步取得突破,为当前在计算机视觉、语音识别、自然语言处理和其他人工智能方面的深度学习奠定了基础核心领域的统治。
深度学习在图像和语音领域非常成熟,自然语言处理仍然面临许多挑战。近年来,NLP领域深度学习的主要进展是Google基于变压器的双向编码器表示。首先,将大量未标记的语料库用于模型预训练学习,然后使用少量的标记的语料库进行微调以完成分类、序列标记和句子间句法。关系判断和机器阅读理解等任务。BERT模型在许多自然语言理解任务上具有出色的性能,但是由于其深厚的网络结构和大量的参数,工程实现的计算能力非常大。
深度学习和其他学习方法形成一个组合模型:深度强化学习、深度转移学习、人工规则和神经网络的组合以及图和卷积神经网络的组合。分布式深度学习的最新进展是莱斯大学的研究人员与亚马逊合作提出的MACH算法。该算法将模型中的10亿个参数划分为几个级别,然后对其进行重新分类,从而大大减少了单个搜索的次数,从而大大减少了培训时间和内存使用量,并且在大型数据库中的检索将更加高效。
迁移学习将训练后的模型从源任务转移到目标任务,以帮助目标任务解决训练样本不足的问题。深度迁移学习具有深度学习和迁移学习的优势,主要分为四类:基于示例、映射、网络和对抗的深度迁移学习。数据标记非常耗时且费力,如标记语义分段图。相关学者提出了一种自动标记图像的方法,可以自动生成多边形以标记图像中的对象。它使用卷积神经网络提取图像特征,然后使用递归神经网络对多边形的顶点进行解码,最后通过评估网络从候选对象中选择最佳模型。深度森林算法模型打破了深度学习技术中深度神经网络模型的垄断。它还具有逐层处理、内置特征变化和模型复杂度高的特点,在非法现金检测应用中取得了良好的效果。
综合分析人工智能的当前基础研究现状,算法模型的未来发展趋势是自动化、组合、轻量化、泛化和探索新的深度模型。当前,学术界和工业界正在将大部分资源投入到现有深度学习算法的改进和应用扩展中,而对基础理论研究的关注不足。尽管各种深度学习算法仍在研究和改进中,但它们都面临基础理论的瓶颈,尤其是黑盒问题,泛化性差和深度学习稳定性不足。强大的人工智能之路仍然遥遥无期。基本算法模型的未来突破提供两种技术途径:一个是神经科学的重大发现;另一个是知识驱动和数据驱动方法的结合。第一条技术路线比较困难,但前景更广阔。因此,各国将神经研究计划列为国家战略,并将神经的基础研究视为竞争全球人工智能技术和产业发展制高点的关键。 四、人工智能算法的算力分析
(一)算力与算法的关系
盡管人工智能的基本理论在早期得到了蓬勃发展,但芯片的计算能力不足限制了人工神经网络的发展。在1980年,计算能力与早期相比增加了大约两个数量级,这只能支持浅层神经网络模型的实现。在21世纪之后,与早期相比,计算能力发生了质的变化,并且已经实现了深度神经网络等高复杂度算法。因此,在计算能力和人工智能算法的不断发展中,计算能力和算法相辅相成,计算能力既促进又制约着算法。
(二)通用电子芯片的发展
目前,使用CMOS技术生产通用电子芯片。在商业上,5nm工艺已实现批量生产。随着晶体管的尺寸逼近物理极限,电子芯片技术进入了后摩尔时代。通过减小晶体管的尺寸来增加集成密度的方法是不可持续的。通用电子芯片开发的主要技术路线是:新工艺、新材料和新物理原理。新工艺的杰出代表是先进包装技术的不断创新和发展。随着摩尔定律的放慢,先进的封装技术已成为电子产品小型化、多功能、低功耗和高带宽的核心手段。它正在向集成、高速、高频和三个方向发展。三维封装技术的本质是将多个高带宽存储芯片与CPU、GPU、FPCA和其他处理器垂直堆叠在三维空间中,以减少彼此的传输路径,加快计算速度并提高整体计算效率。
五、人工智能发展的前景
短期内,算法模型的发展趋势是自动化、组合、轻量、通用和新的深度模型、例如,在AlphaGo上成功实现深度增强模型以及使用训练数据增强。深度转移学习在一定程度上缓解了培训数据不足的困境;自动机器学习尝试逐步使机器学习中的部分或全部过程自动化。深林是一种新型的深度网络模型,它打破了深度神经网络在深度学习技术中的垄断地位。从长远来看,算法模型基础理论的突破很可能来自神经科学和认知科学等基础研究领域的革命性突破。
大量的大样本训练时间长,计算成本高,可解释性差和稳定性差。深度学习网络模型使用概率和统计方法通过逐层特征转换自动学习数据样本的特征,但是样本的利用率较低,在现阶段无法通过很少的学习样品像人。未来,深度学习技术将不仅依赖于速率统计方法,还将与知识规则驱动的方法相集成。小数据样本培训是未来的重要发展方向。随着大数据、5G、物联网和云端计算的飞速发展,基于深度学习网络的人工智能技术的应用领域越来越广泛,在计算机视觉、语音识别、自然语言处理、机器翻译等领域与路径规划其他技术领域将继续深入探索,并将在安全、金融、运输、教育、医疗和能源等多个应用领域中广泛工业化。
结语
在算法、算力和数据的驱动下,人工智能正进入由深度学习技术引领的发展浪潮。尽管算法的基础理论存在瓶颈,但人工智能的工业应用仍在不断发展。
参考文献:
[1]谢宗仁,冯伟,耿奎.综合集成研讨厅研究现状及其在人工智能时代的发展机遇[J].科技管理研究,2020(16):39-45.
[2]尹洁.弱道德人工智能可行吗——从精神医学用途到道德增强[J].医学与哲学,2020(13):1-7,13.
[3]赵晶,曹易.风景园林研究中的人工智能方法综述[J].中国园林,2020(5):82-87.
[4]陈舒,倪民军.大数据与人工智能在行业中的发展——以会计行业为例[J].商业会计,2020(7):124-126.
武汉商贸职业学院 刘 欢 吴 芬