导读:本篇文章首席CTO笔记来给大家介绍有关人工智能歌曲怎么样知乎的相关内容,希望对大家有所帮助,一起来看看吧。
AI作曲四位虚拟歌手在线合唱,歌词有何含义?
AI作曲四位虚拟歌手在线合唱,歌词有何含义?
小冰、小爱同学、小度、冷鸢yousa这四位虚拟歌手,在今年的人工智能大会云端峰会上,联手唱了一首智联家园,并且这首歌还是有,人工智能作曲的,令人感慨科技发展之快,连人工作人员都能够作曲唱歌了,这首歌是由微软小冰做的曲,据说微软小冰,具有很高的音乐创作能力,并且能够快速的完成一首歌的歌词编曲的一系列创作,而且掌握了许多种歌曲的风格,有流行音乐,有民谣,还有很多种风格,听到这里实在是令人叹为观止。那么这一首《智联家园》歌词有什么含义呢?
歌词里面说到:“我想我可以唱一首歌用来形容天空的辽阔,我想我可以拿起画笔,用来描绘梦想的颜色。我想我可以遥望星河,从中获取思考的快乐。”我觉得这几句歌词从人工智能的本身来看,更像是他未来发展的样子,现在的人工智能已经可以唱歌了,那么未来的人工智能,或许真的可以自己拿起画笔,去描绘自己想要描绘的颜色。科技发展的如此之快,说不定有一天他们真的会有自己的思想,并从中获取思考的快乐。但另一方面这些向往是科技界顶端的人士对中国未来科技的一种畅想。
歌词说”我想我可以不拘一格做你无法到达的探索。“现在的科技人工智能,以及未来会发展的人工智能和高科技,确实是能够去做到一些人类无法做到的事情,也确实能够做一些我们无法到达的探索,在我看来这首歌更像是为未来科技,描绘的一张蓝图,因为未来的人工智能可能就是歌词里所说的样子。
歌词说“智联的世界,共同的家园,他把你我相连去开创明天,人类的心愿,智能的天梯,互融互联,谱出更美好的音符”这即将是一个开启全智能的时代,是为人们去创造更美好的生活而去发展的人工智能,科技和人工智能一定会和人类的生活紧密相连,息息相关,未来一定是人工智能的世界,科技和人工智能,将帮助人们谱写更美好的生活。
ai歌手唱出来的歌曲不好听
好听。ai歌手即Luya,是一位热爱音乐、热爱唱歌的虚拟歌手,唱出来的歌曲好听,开展了ai融合音乐的相关研发,拓展了音乐领域的内容边界。人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术。
人工智能来了,未来的音乐将是什么样?
纵观世界艺术 历史 , 科技 的发展和艺术的发展息息相关,从农耕时代中世纪的教堂圣咏,到工业革命冶炼技术出现后成就的交响乐,随着电子技术以及计算机的出现,电子音乐、MIDI、计算机音乐、音乐人工智能迅速发展。未来音乐会是和计算机、人工智能有关吗?这是很有可能的。我们并不知道未来音乐是怎样的,但未来音乐值得我们 探索 。
音乐与人工智能的发展
国外音乐与 科技 相关学科的发展自20世纪50年代开始,工程师和科学家开始合作 探索 音乐的数字处理技术,逐渐形成了音乐 科技 /计算机音乐(Music Technology/Computer Music)这一交叉学科。上世纪70年代以后,欧美各国相继建立了多个大型计算机音乐研究机构。2000年后,音乐 科技 在世界各地如澳大利亚、日本、新加坡等地都逐渐发展起来。
20世纪90年代起,国内各个综合类大学的计算机专业中的一些教授开始了关于计算机与音乐的研究。近年来,中央音乐学院、中央美术学院、上海音乐学院等国内一批一流艺术院校先后成立了艺术 科技 交叉学科,对音乐或其他艺术与人工智能的交叉研究开展了初步 探索 。
中央音乐学院是我国最早开展音乐与人工智能交叉研究的艺术院校:1993年成立了电子音乐中心,2012年成立音乐 科技 部,2018年组建音乐人工智能与音乐信息 科技 学科方向和实体系,下设音乐人工智能、电子音乐作曲、电子音乐制作、音响艺术指导、音乐治疗、艺术嗓音等专业方向。前一段时间在京举办的世界音乐人工智能大会就是由音乐人工智能系承办的,主办单位是中央音乐学院和中国人工智能学会,团结了全世界最顶尖的一线人工智能音乐专家。明年将继续举办,希望它成为世界音乐人工智能的风向标和重要的学术交流场所,成为产业化交流的平台与服务 社会 的纽带。
世界音乐人工智能大会圆桌讨论
今年,中国人工智能学会(CAAI)艺术与人工智能专委会、中国计算机学会(CCF)计算艺术分会相继成立,团结了全国八大艺术门类的所有跟 科技 相关的人员,包括中央音乐学院、中央美术学院、上海音乐学院、中央戏剧学院等艺术院校艺术与 科技 的相关人才,一起来探讨未来艺术。
音乐人工智能先乐后药
音乐与人工智能发展有三个过程:创作、呈现、接受。我们研究音乐、人和人工智能三者如何协同发展的关系。在创作、呈现、接受以外,还有哲学、音乐人工智能的美学以及它的伦理,都有待我们跟进研究。
音乐创作方面,有作曲技术的研究,也有智能作曲和新创作的方式。智能作曲是按照人既有的规律创作;而新创作的方式,是以人还没有的规律(由AI)自觉创作的一个过程。我们现在做AI作曲,会发现它模拟人的创作挺有趣,而它模拟的自主创作会让人瞠目结舌,希望未来也会为这个世界创作一些惊喜。
音乐呈现、传播等方面,有机器人的演奏,中央音乐学院与美国印第安纳大学还搞了一个自动伴奏系统。原来的伴奏系统是人跟着乐队、伴奏带学习,但现在的AI伴奏系统,会像人一样配合你的演奏。未来我们也会自动生成为一些伴奏音乐。
音乐接受方面,我们已经在认知、音乐治疗、欣赏过程方面进行了研究和 探索 。音乐治疗是我们人工智能系重要的部门之一,下设音乐治疗教研室中心,已经有了接近30年的 历史 。目前,中央音乐学院的音乐治疗除了传统的音乐治疗以外,还有音乐人脑科学,科学地研究、构建一个更大的音乐治疗范围,不仅仅是从心理学角度研究,还从脑科学进行研究。目前,大家已经找到了音乐记忆在脑部的某个位置的反应,是很小的一个记忆点。我们希望搞清楚音乐的频率、音乐如何形成人的情绪,它对人脑到底产生了什么影响。其实,音乐对人的情绪影响是巨大的,有的时候甚至超过了药物,你吃药得反应半天才会有效果,可是听音乐的一瞬间情绪就会发生变化,所以音乐的频率特别神奇。
中国古代音乐的“乐”字繁体字“乐”,加个草字头就是“药”(药)字。《黄帝内经》不断说了先乐后药,治病的时候还有声音治病。我们希望通过脑科学验证声音的频率到底对人有多大的反应,反应在哪儿,它的机理是什么。我们未来想做抑郁症、自闭症、临终关怀,可是现在我们想第一步解决睡眠的问题,研究音乐对睡眠的影响。
智能作曲已经开始了
央音的AI自动作曲系统,是通过人工智能算法进行作曲、编曲、歌唱、混音,并最终生成完整歌曲作品的系统。智能作曲能够在23秒快速地创作出一首歌曲,可以达到一般作曲家写作水平。23秒,配器、演唱都可以出来,在全世界都比较前沿。
自动作曲系统架构
智能自动作曲系统主要分为自动作曲模块、自动编曲模块、歌声合成模块和自动混音模块。在系统建立过程当中,首先要对歌曲旋律、曲风、 情感 、歌词等歌曲信息进行整理和统计,建立给信息大数据库,然后用深度学习算法训练对应的模型,最后由系统根据用户输入的参数和歌词进行歌曲作品的制作。这个项目最终的目的是要实现一个基于网页-服务器架构的、可供用户操作使用的网页端产品。
未来的音乐一定会是一个多维的音乐空间。传统的一对音箱的立体声,我们听到的声音都是从前面传过来。但是现在很多全景式的收音、录音技术,是可以收到四面八方的声音的,效果就好了很多。3D音乐将比立体声音乐有着更动人的音乐魅力,是传统的立体声音乐听觉的升级,是目前电视、立体声录音等没办法体验的、全新概念的音乐体现方式。这种“跑动起来、流动的”3D全息音乐将是未来音乐的一部分,是一个这个时代的创新工程,值得我们 探索 。
除了传统的交响乐队产生三维立体声效,我们还有新创造的音乐,比如电子音乐创作,不拘泥于前面发声,也可以通过后面发声、上面发声,各个维度所有方向参与音乐的创作表达当中。我们的研究结果发现,3D音乐的出现,可能会对我们传统的和声、配器产生影响。
3D音乐肯定会改变原来的模式,2019年中央音乐学院做了一场3D音乐《中国十二生肖》。现在全世界很多的音乐家都在做,包括杜比公司、DTS公司已经发布自己的编码解码系统,这就给了创造者更多的空间,他们自己在家里就可以做3D音乐了。3D音乐除了音箱以外,还可以下降到耳机的算法,我们戴耳机也可以听出三维的空间。
未来,音乐机器人、虚拟机器人对于我们音乐表演、交互、音乐 娱乐 将会有重要的好处,我们目前正在做一个音乐教育方面的音乐机器人。大家知道,全世界的音乐教育师资缺乏,特别是偏远地区专业的音乐老师非常缺乏,甚至有些地方都是 体育 老师、语文老师兼职。我们希望在“数字人”方面做一些努力,让“数字人”能作为一个音乐老师跟你交互。如果音乐教育的虚拟人物能为全国的边远山区做一些事,对我们中国的美育教育将会是一个重大的贡献。
我们还有一个AI歌词辅助写作系统,辅助作曲家创作歌词。我们做了一个作诗系统,80%的人都写不过它。我们现在在做音乐数据以及计算中心,教育部和发改委都非常重视,特别希望我们建成全世界最大的音乐数据中心。
音乐人工智能的研究领域非常广泛,全世界没有专门研究人工智能的学校,大家都是从声音转过来的。中央音乐学院这个学科研究的就是未来音乐,我们有人工智能创作、人工智能的表演与交互、智能音乐教育、音乐与脑科学四个研究方向。我们的毕业生特别抢手,音乐人工智能的毕业生还没有毕业,各个大公司都抢着要我们的人。
未来的音乐是什么?可能我们不知道。但是我们可以通过纵观音乐 历史 的发展、 科技 的发展来看到一些线索。 科技 的发展对我们的音乐创作、音乐呈现、音乐接受、音乐哲学等都会产生深远的影响。
我认为未来音乐的发展将会在下面三个维度上展开:
第一、传统意义的音乐(包括现代音乐)将会继续发展;第二、 科技 赋能传统意义的音乐创新发展; 第三、新 科技 产生新的音乐形态独立发展。
总之,音乐人工智能是帮助人类、赋能人类的,不是代替人类的,人类的艺术因为音乐人工智能的出现将更加丰富多彩、更加弥足珍贵。希望我们一起携手为未来音乐做一些事情。
文/中央音乐学院音乐人工智能与音乐信息 科技 系系主任、教授 李小兵
编辑/弓立芳
人工智能可以作曲吗
其实,人们对于人工智能能否作曲、能够画画或者写诗、能否进行创造性的活动这个问题,已经研究了超过170年。
在1843年,英国数学家爱达·勒芙蕾丝夫人,她是后人公认的 史上第一位计算机程序设计师。她认为,机器不可能会有 和人类一样的智慧,因为它只会忠实执行 人类所要求的工作。
根据勒芙蕾丝的观点,如果一部机器具有智慧,它就必须能够产生 具有原创性的构想。
直到2001年, 人们提出了「勒芙蕾丝测试」,用来检验机器是否具有智慧。
如果机器所创造出的作品, 是它的设计师无法用程序解释的,就代表这部机器就具有智慧。
就实验设计来看, 勒芙蕾丝测试比较像是「思想实验」,而不属于客观的科学实验。但这是一个起点。
乍看之下,机器似乎不可能 创作出高质量的原创音乐。
我们可以用复杂的算法,结合随机产生的变量、 混沌公式和模糊逻辑,来产生一连串的音符,这个过程无法从原始程序解读、追踪。
虽然这会产生无数的、 未曾听过的原创旋律,但是其中只有一小部分是令人觉得悦耳的。
目前计算机仍然无法分辨人们认为好听的音乐以及不好听的音乐。
但是,如果我们换个思路,试着模拟出 形成创意的自然过程呢?
目前,我们已经知道 至少一种以上的过程,它可以产生出原创的、有价值的、 甚至是悦耳的音乐作品,
这个过程称为「演化」。
包括进化式算法,或是模仿生物进化的「基因算法」,都是可能的研究方向,能让机器产生出具原创性, 而且有价值的艺术作品。
那么,什么样的演化过程, 能使机器拥有创作音乐的能力?
不同于一般生物的演化,我们先以乐句(musical phrases) 作为演化的初始群体,然后用基本的算法来模仿复制与随机变异,例如将乐曲的某些部分进行交换、互相组合,以及随机取代某些音符。
现在,我们产生了新的乐句,接着我们用「适应函数」来进行选择。
正如同生物的适应性, 是由外在环境的压力来决定,我们的适应函数, 是根据音乐家或音乐爱好者所挑选出的乐曲旋律来决定,这些代表了人们认为最优美的旋律。
然后,透过算法将机器创作出来的乐句与人们所挑选的优美旋律 进行比较,并选出相似性最高的乐句。
淘汰掉那些 相似性较低的乐句之后,算法会将剩下的部分, 再次进行突变和重组,然后再次从新一代的乐句当中, 选出相似性或适应性最高的部分,这样的步骤会重复进行数个循环。
在这个创作过程中,有许多的随机性和复杂性,所以能够通过勒芙蕾丝的测试。更重要的是,在创作的过程中 结合了人类的审美观,所以根据理论,我们能够产生出 让人觉得优美的旋律。
但是,这是否符合人们直觉上 所认为的「真正的创意」?这样的创作方式, 是否能得到原创而且优美的作品?
创作者在过程当中, 是否要有目的、能自我察觉,才能够称为创意?
也许在这种情况下, 创意是来自于程序设计师,但是他们并不了解整个创作过程。
究竟,什么是人类的创造力?
也许,创意并不仅仅是一个由生物演算过程所发展而成, 相互链接的神经元系统,也不仅仅是 形成我们的生活的一些随机经验。秩序与混乱,机器和人类。这些共同构成了 机器创作的核心动力,使得机器能创作出 音乐、雕塑、绘画、诗歌和更多的作品。
我们仍然无法定论机器创作是否可以算是具有创意。
但是如果一件艺术作品, 能够令人感动,或是令你毕生难忘,甚至是令你觉得毛骨悚然,究竟作者是人还是机器, 真的重要吗?
如何评价人工智能创作的歌曲《Daddy's car》
围棋和音乐不能类比——围棋谁赢谁厉害,吹捧“棋感”的民科们,如果不能赢,棋感的存在就是弱者思维,毫无意义。
音乐呢?我通过若干运算得出莫扎特最强,把其他人所有作品都删了,音乐界就变得更好更先进了?
把“AI”替换成别的,相信很多人就懂了:我家“爵迹”用了最牛逼的动画技术你怎么还觉得不好看呢?一定是你没有审美……
艺术的评价标准是主观的,“主观”的意思就是人类说了算。
找个受不同教育的外星人来评价,他还会给同样的答案么?
艺术不是理科,无法自证正确与否,也无法量化标准。人文科学和自然科学是有区别的啊。
所以从一开始AI就没有取代人类音乐家的可能。人文学科如果不建立在人类身上,就变成了另一物种的自high。
所以很多哲学思辩不过关,单纯想象AI能力的的讨论确实没啥意义了。
最后回答题主问题:
编曲作曲不会消失,但很多刷模板走套路的量产作曲公司在市场的认知跟上之后会消失(其实现在已经能够被罐头音乐取代了)。
艺术家的作品如何和AI作品对比,取决于学术界怎么想。不排除AI中会冒出优秀作曲家的可能性。
——————2016/10/2补充——————
造成这些争论的原因是,很多人可能根本没搞清音乐家在干什么。以至于各种“AI能否取代XXX?”话题下都有不了解音乐的人在强答。
很多人全凭自己想象,觉得钢琴家是因为弹得比别人快和准(你先告诉我准是什么样?),作曲家是因为做了别人写不出来的曲子(怎么证明别人写不出来?),而不是因为用自己的表达和诠释启发了后来的艺术工作者。
我们说巴赫是大音乐家,不是因为巴赫的赋格写得好,而是我们甚至连“好”的标准都是从他的曲子里提炼出来的。没有他我们连“赋格写得好”的标准都没有。
举个通俗易懂的例子,梵高的向日葵很多人能临摹,我们会把这些人叫大艺术家么?
只能叫基本功好的画师吧。
一遍遍地强调AI可以临摹得更快更好,可以复制粘贴出无数个梵高,有意义么……
我知道这样一说肯定有人来扯机器学习,AI有创造力啊什么的。
拜托,负责定义什么叫“创造力”,才是艺术家干的事情好么。没接触过古典音乐教育的人,说不定觉得EXO比巴赫更有创造力呢。
艺术本来就不是物理世界的东西,无非是借用了下物理媒介(钢琴家的手指,作曲家的乐谱,画师的画布)之类的。
AI可以成为更好的媒介,和降低基本功门槛的好工具,但无法代替艺术本身。
难怪刘老师路过默默吐槽了一句这里没几个学了十年音乐的。
所以真的不懂音乐不要强答……
最后补充一句,就目前的视频来看,FlowMachines的技术其实和十年前的band in a box比,并没有明显的进步……索尼大法还是要加油啊。
ai唱出来的歌曲不好听
是的,不好听,因为AI目前还处于人工智能发展的初期,各种开发还没有成熟,因此唱歌不好听很正常,未来AI技术还有非常大的发展空间,相信不久歌曲质量会有快速改进发展,会更好听
结语:以上就是首席CTO笔记为大家介绍的关于人工智能歌曲怎么样知乎的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。