论文部分内容阅读
摘要:人工智能作曲已经成为当前音乐科技的一大重要组成部分。本文通过分析MIDI 2.0协议中的核心MIDI-CI的基本原则与功能,发现交互视角逐渐由以使用者的主观能动性为重点,变为机器间的自主交互为重点,通过研究EMI人工智能作曲的原理与流程,进一步论证机器的自主交互与自主学习的主要特征。随着人工智能作曲的发展,机器的训练与学习变得尤为重要,机器自主交互的开发与拓展是未来人工智能作曲的一个重要方向。
关键词:人工智能作曲 交互 MIDI 2.0
一、引言
在21世纪的今天,人工智能作曲经过38年的发展已经趋于成熟。在人工智能作曲的流程中,人机交互一直是其交互关系的重要方式,并且人机交互也一直以使用者为主体,机器为协助;而由于机器的智能化发展,机器可以进行训练与学习,也可以进行与其他机器之间的自主性交互,不再局限于跟使用者之间的交互行为。在计算机音乐中,“机器”可以代表计算机,可以代表MIDI控制器设备,也可以代表作曲程序中的某个处理模块等所有可以与使用者产生信息交互的单位。因此,如何理解机器在交互关系中逐渐由辅助地位走向主体地位是非常有必要的,机器与机器之间的自主交互关系更是逐渐受到人们的重视。
二、MIDI 2.0协议的核心——MIDI-CI
2019年全球的MIDI制造商协会(MMA)和日本的音乐电子行业协会(AMEI)共同宣布经过了多年的协调和研发,MIDI 2.0协议草案正式公布。支持MIDI 2.0的新设备或新软件都会有一个MIDI-CI模式,这个模式是MIDI 2.0的核心。CI是“能力查询”的意思,两个设备通过MIDI连接之后互相会知道对方是什么设备,具备什么功能,有哪些参数可以相互控制。正是因为MIDI-CI,MIDI设备才可以在连接方面有巨大提升。MIDI-CI使用三种查询方式来发现和配置设备功能。
(一)配置设置:MIDI如何控制常用功能可以用配置设置来定义,这样设备能够发现并打开对应的配置设置,让交互行为具有更好的操作性和易用性,同时降低了使用者手动配置设备的需求。
(二)资源交换:两个设备由一组系统信息来进行资源交换,设备之间可以发现、获取和设置MIDI设备的许多属性。可以交换的信息包括设备配置设置、控制器及音色等。
(三)协议协商:允许设备在使用MIDI 1.0协议还是MIDI 2.0协议之间进行选择。
从MIDI-CI的基本原则上可以看出,机器的辅助功能得到开发,机器与机器之间的交互关系得到发展。MIDI 2.0的升级更让我们看到了机器能力在功能上的新拓展,功能上的拓展离不开数据量的累积,比如我们可以在精度上看出MIDI 2.0数据量的提升。MIDI 1.0只有7 bit精度,MIDI 2.0则有16 bit精度。我们假设使用的采样音频素材是采样频率为44100HZ的立体声音频素材,对比一下这两个精度的数据量,我们采用的数据量计算公式为:数据量(字节/秒)=(采样频率×量化字长×声道数)/8。那么MIDI1.0的数据量为(44100×7×2)/8=77175(byte/s);MIDI2.0的数据量为(44100×16×2)/8=176400(byte/s)。在数据量的对比上可以看出MIDI 2.0关于精度的提升是巨大的。
三、人工智能作曲的原理与流程
谈到人工智能作曲,David Cope的EMI人工智能音乐作曲系统是最具代表性的。Cope最初的想法是创建一个计算机程序,该程序能够具有感受整体音乐风格并学习的能力,然后通过作曲家的创作需要,定向生成新的音乐作品。这样的作曲方式离不开作曲家和计算机程序之间的交互与合作。Cope使用这些程序学习各种古典作曲家的风格并重新组成完整的作品獲得了成功。音乐智力实验使用以下三个基本原理进行工作。
(一)解构:分析音乐并分解成“单位” 。
(二) 分类:保留代表风格特征的共性“单位”。
(三)重构:将“单位”重新组合成新的作品 。
这三个原理我们也可以理解为数据的解构、分类与重构的过程。在人工智能作曲流程中,机器与机器的交互是发生最多的,也是运算量最大的。机器的自主交互不止发生在解构、分类与重构的部分,也可以发生在更小的单位之间,或者更大的模块之间。因此,在人机交互中虽然人占有主要地位,但是不可以忽视机器的自主交互能力,尤其是在智能化越来越发达的今天,智能化机器在自主交互中会产生出不一样的创造力。
四、结语
我们通过分析MIDI 2.0协议中的核心MIDICI的基本功能和EMI人工智能作曲的原理不难发现,人工智能作曲在快速发展,交互关系的重心也在发生改变。现在作为连接工具的IDI设备也进入了2.0时代,计算机作曲也进入了多种算法作曲相融合的阶段。在大数据平台的支撑下,随着人工智能整体技术水平的提升,使用者对作曲系统智能化程度要求的提高,交互关系不仅会在机器的自主交互方面有所突破,更会在人机交互关系的其他方面有所发展。科技的进步会逐渐消除人与机器之间的交互障碍,未来交互关系的成熟会让人工智能作曲实现更多的可能。
(作者简介:杨维佳,男,硕士研究生,济南大学音乐学院2018级,研究方向:音乐科技与应用)(责任编辑 刘月娇)
关键词:人工智能作曲 交互 MIDI 2.0
一、引言
在21世纪的今天,人工智能作曲经过38年的发展已经趋于成熟。在人工智能作曲的流程中,人机交互一直是其交互关系的重要方式,并且人机交互也一直以使用者为主体,机器为协助;而由于机器的智能化发展,机器可以进行训练与学习,也可以进行与其他机器之间的自主性交互,不再局限于跟使用者之间的交互行为。在计算机音乐中,“机器”可以代表计算机,可以代表MIDI控制器设备,也可以代表作曲程序中的某个处理模块等所有可以与使用者产生信息交互的单位。因此,如何理解机器在交互关系中逐渐由辅助地位走向主体地位是非常有必要的,机器与机器之间的自主交互关系更是逐渐受到人们的重视。
二、MIDI 2.0协议的核心——MIDI-CI
2019年全球的MIDI制造商协会(MMA)和日本的音乐电子行业协会(AMEI)共同宣布经过了多年的协调和研发,MIDI 2.0协议草案正式公布。支持MIDI 2.0的新设备或新软件都会有一个MIDI-CI模式,这个模式是MIDI 2.0的核心。CI是“能力查询”的意思,两个设备通过MIDI连接之后互相会知道对方是什么设备,具备什么功能,有哪些参数可以相互控制。正是因为MIDI-CI,MIDI设备才可以在连接方面有巨大提升。MIDI-CI使用三种查询方式来发现和配置设备功能。
(一)配置设置:MIDI如何控制常用功能可以用配置设置来定义,这样设备能够发现并打开对应的配置设置,让交互行为具有更好的操作性和易用性,同时降低了使用者手动配置设备的需求。
(二)资源交换:两个设备由一组系统信息来进行资源交换,设备之间可以发现、获取和设置MIDI设备的许多属性。可以交换的信息包括设备配置设置、控制器及音色等。
(三)协议协商:允许设备在使用MIDI 1.0协议还是MIDI 2.0协议之间进行选择。
从MIDI-CI的基本原则上可以看出,机器的辅助功能得到开发,机器与机器之间的交互关系得到发展。MIDI 2.0的升级更让我们看到了机器能力在功能上的新拓展,功能上的拓展离不开数据量的累积,比如我们可以在精度上看出MIDI 2.0数据量的提升。MIDI 1.0只有7 bit精度,MIDI 2.0则有16 bit精度。我们假设使用的采样音频素材是采样频率为44100HZ的立体声音频素材,对比一下这两个精度的数据量,我们采用的数据量计算公式为:数据量(字节/秒)=(采样频率×量化字长×声道数)/8。那么MIDI1.0的数据量为(44100×7×2)/8=77175(byte/s);MIDI2.0的数据量为(44100×16×2)/8=176400(byte/s)。在数据量的对比上可以看出MIDI 2.0关于精度的提升是巨大的。
三、人工智能作曲的原理与流程
谈到人工智能作曲,David Cope的EMI人工智能音乐作曲系统是最具代表性的。Cope最初的想法是创建一个计算机程序,该程序能够具有感受整体音乐风格并学习的能力,然后通过作曲家的创作需要,定向生成新的音乐作品。这样的作曲方式离不开作曲家和计算机程序之间的交互与合作。Cope使用这些程序学习各种古典作曲家的风格并重新组成完整的作品獲得了成功。音乐智力实验使用以下三个基本原理进行工作。
(一)解构:分析音乐并分解成“单位” 。
(二) 分类:保留代表风格特征的共性“单位”。
(三)重构:将“单位”重新组合成新的作品 。
这三个原理我们也可以理解为数据的解构、分类与重构的过程。在人工智能作曲流程中,机器与机器的交互是发生最多的,也是运算量最大的。机器的自主交互不止发生在解构、分类与重构的部分,也可以发生在更小的单位之间,或者更大的模块之间。因此,在人机交互中虽然人占有主要地位,但是不可以忽视机器的自主交互能力,尤其是在智能化越来越发达的今天,智能化机器在自主交互中会产生出不一样的创造力。
四、结语
我们通过分析MIDI 2.0协议中的核心MIDICI的基本功能和EMI人工智能作曲的原理不难发现,人工智能作曲在快速发展,交互关系的重心也在发生改变。现在作为连接工具的IDI设备也进入了2.0时代,计算机作曲也进入了多种算法作曲相融合的阶段。在大数据平台的支撑下,随着人工智能整体技术水平的提升,使用者对作曲系统智能化程度要求的提高,交互关系不仅会在机器的自主交互方面有所突破,更会在人机交互关系的其他方面有所发展。科技的进步会逐渐消除人与机器之间的交互障碍,未来交互关系的成熟会让人工智能作曲实现更多的可能。
(作者简介:杨维佳,男,硕士研究生,济南大学音乐学院2018级,研究方向:音乐科技与应用)(责任编辑 刘月娇)