最近我一直在玩几个AI音乐生成工具,说实话,脑子里有点嗡嗡的。不是因为音乐不好听,恰恰相反,是有些好得过头了,好到让我这个半吊子爱好者都开始怀疑人生。于是我做了个小实验,把我用AI生成的几段音乐,混在一堆人类大师的作品里,发给我认识的一位专业作曲师朋友,让他猜猜哪些是AI写的。
结果?他猜错了大半。
这事儿真挺有意思的。过去我们总觉得,AI搞搞重复性劳动还行,但创作,特别是音乐这种需要情感和灵魂的东西,机器肯定没戏。但现在看来,这堵墙好像正在被敲开。今天我就想聊聊我找到的3个例子,它们真的让一些专业人士都摸不着头脑。

第一个例子:骗过古典音乐家的“假巴赫”
这事儿得从一个叫DeepBach的项目说起。巴赫,大家都知道,音乐之父,他的作品结构严谨,和声复杂,充满了数学般的美感。按理说,模仿巴赫的风格,就像让一个刚学画画的人去临摹《蒙娜丽莎》,形似都难,更别说神似了。
但是,研究人员用AI干了这件事。他们把巴赫创作的352首众赞歌全部“喂”给一个叫DeepBach的AI模型。这些众赞歌的和声规律性很强,特别适合让AI来学习。AI就像一个不知疲倦的学生,日夜不停地分析这些乐谱,学习巴赫在创作里的每一个选择,比如某个音后面最可能跟哪个音,哪种和弦接到哪种和弦上听起来最“巴赫”。
学完之后,研究人员就开始出题考试了。他们给AI一段巴赫写的旋律,但是把和声部分挖空,让AI自己把和声填进去。然后,他们把AI填写的版本和巴赫本人的原版,混在一起,拿给一群人听,里面有普通听众,也有超过400名专业的音乐家和音乐系的学生。
结果让人大跌眼镜。当播放AI生成的版本时,超过一半的专业人士以为这就是巴赫本人的手笔。 想想看,这些可是每天跟五线谱打交道的人,他们的耳朵比我们普通人挑剔多了。但AI写的和声,在他们听来,完全符合巴赫的风格,毫无破绽。
我那位作曲师朋友听完我讲这个故事,沉默了半天。他说,这事儿的可怕之处在于,AI不是在“复制粘贴”巴赫的音乐片段,而是在用巴赫的“思维方式”进行再创作。它理解了规则,甚至可能在某种程度上,理解了那种巴常有的“味道”。虽然它没有情感,但它通过学习海量数据,精准地模拟出了可以引发人类情感的音乐结构。这就像一个机器人,虽然自己不会笑,却能讲出全世界最好笑的笑话。
第二个例子:能写电影配乐的AI作曲助理AIVA
如果说DeepBach还只是个停留在实验室里的项目,那AIVA(Artificial Intelligence Virtual Artist)就已经是个正儿八经的商业产品了。 很多人用它来给视频、游戏甚至电影做配乐。 AIVA的厉害之处在于,它不仅能模仿古典大师,还能驾驭各种现代曲风,比如电影原声、电子、流行等等。
AIVA的背后,也是深度学习算法和海量的音乐数据库。 它的开发团队把历史上伟大作曲家,比如莫扎特、贝多芬等人的作品都进行了分析和“投喂”。所以,当你需要一段配乐时,你不用从零开始。
操作起来也很简单。你只需要给AIVA一些指令。比如,你可以设定一个“情绪”,是“史诗感”、“忧伤”还是“悬疑”;然后选择一种“风格”,比如“现代电影感”或者“赛博朋克”;再指定一下时长、速度和配器。几分钟之内,AIVA就能生成一段全新的、独一无二的音乐。
最关键的是,生成的音乐质量非常高,高到什么程度?很多独立游戏开发者和YouTube博主,都在用AIVA生成的音乐作为他们作品的背景音乐。这些音乐听起来一点也不廉价或者模板化。相反,它们旋律流畅,配器丰富,情绪渲染也很到位。
我特意找了几首AIVA生成的“现代电影风格”的曲子,放给我那个作曲师朋友听。我骗他说,这是某部小众独立电影的原声,让他评价一下。他听完后说:“编曲很成熟,和声走向和配器选择都挺专业的,就是感觉旋律上稍微有点……说不上来的平淡,但整体完成度很高,绝对是职业水平。”
当我告诉他这是AI写的之后,他明显愣了一下。他说,他所谓的“平淡”,可能就是AI和顶尖人类作曲家之间最后的差距——灵感迸发的那一瞬间。人类作曲家有时候会故意打破规则,写出一些意料之外但又在情理之中的旋律,这就是所谓的“神来之笔”。AI目前更多的是在规则的框架内做到极致。
但是,他也承认,对于绝大多数不需要“神来之笔”的配乐工作来说,比如广告、短视频、游戏的功能性音乐,AI的效率和成本优势太大了。 它生成的作品已经足够“以假乱真”,足以胜任这些工作。而且,AIVA还允许用户对生成的音乐进行深度编辑,比如修改MIDI音轨,调整每一个音符,这让它更像一个创作伙伴,而不是一个封闭的黑盒子。
第三个例子:让大众无法分辨的Suno和Udio
前面两个例子,一个偏学术,一个偏专业应用。而第三个例子,则真正把AI音乐创作这件事,推到了我们每一个普通人面前。说的就是像Suno、Udio这类AI歌曲生成器。
这类工具的操作更简单粗暴。你只需要输入一段文字,描述你想要的歌曲主题、风格,甚至直接给它一段歌词,它就能在几十秒内,生成一首完整的、带人声演唱的歌曲。 没错,连唱都给你唱好了。
就在前不久,音乐流媒体平台Deezer联合益普索做了一项大规模的调查,覆盖了美国、英国、法国等8个国家的9000名成年人。 他们让参与者听几段音乐,有的是AI生成的,有的是人类创作的。结果呢?高达97%的受访者,根本分不出来哪个是AI,哪个是人。 很多人甚至对自己的分辨能力感到不安。
这个结果可以说相当震撼了。这说明AI生成的音乐,在“听感”这个层面上,已经无限接近,甚至达到了普通听众的标准。它不再是那种一听就很“假”的电子合成音,而是有旋律、有和声、有节奏,甚至有人声起伏和情感表达的完整作品。
我那位作曲师朋友对这类工具的态度很复杂。一方面,他觉得这极大地降低了音乐创作的门槛,是好事。 以前你想做一首歌,得学乐理、学乐器、学编曲,是个漫长的过程。现在,你只要有想法,AI就能帮你实现,人人都可以是创作者。
但另一方面,他也表达了担忧。当平台上每天涌入成千上万首由AI生成的“还不错”的歌曲时,真正由人类精心创作的优秀作品,会不会被淹没在信息的海洋里? 而且,AI的学习依赖于人类已有的作品,这里面复杂的版权问题,也是一个绕不开的坎。
不过,事实就是,AI音乐的技术已经到了一个临界点。它或许还写不出贝多芬的《命运交响曲》,因为它没有人类的经历、痛苦和挣扎。 但是,在模仿、学习和重组现有音乐风格方面,它已经是一个高手,一个能骗过专业耳朵的高手。这到底是好事还是坏事,现在下结论还太早。但可以肯定的是,音乐创作的游戏规则,确实不一样了。
原创文章,作者:MakeAI,如若转载,请注明出处:https://www.qidianhudong.com/aiyy/aimusic/2029.html