首页 > 立知

人工智能音乐方向 人工智能音乐创作人工智能,音乐英特尔研究院发布全新 AI 扩散模型,可根据...

小猫咪 立知 2024-01-23

科学家利用人工智能技术,根据人们听音乐时的大脑活动记录,重建了摇滚乐队平克·弗洛伊德的著名歌曲。 这项研究帮助我们更多地了解大脑如何感知音乐,这最终可能为有语言障碍的人带来更好的语音设备。

文|陈强

你有没有想过,当你享受音乐之美时,你的大脑也在同步产生相应的神经信号? 如果我们能够捕获这些信号并将它们还原为音乐会怎么样?

最近,加州大学伯克利分校的神经科学家罗伯特·奈特( )和他的同事实现了这一壮举。 在这项研究中,研究小组记录了2009年至2015年美国奥尔巴尼医学中心29名癫痫患者的大脑。

作为癫痫治疗的一部分,这些患者的大脑中植入了一组尖峰状电极。 这为科学家提供了一个难得的机会来记录患者听音乐时的大脑活动。

研究小组选择了英国摇滚乐队 Pink Floyd 的歌曲《Brick in the Wall, Part 1》,部分原因是老年患者喜欢这首歌曲。 而且,这首歌有 41 秒的歌词和两分半钟的纯乐器演奏,这种组合有助于揭示大脑如何处理语言和旋律。

人工智能有助于破译大脑信号

通过将大脑信号与原始歌曲进行比较,研究小组确定了哪些大脑信号与歌曲的音调、旋律、和声和节奏密切相关。 然后,他们训练人工智能来学习大脑活动与这些音乐元素之间的联系。 然而,在训练数据中,他们排除了原歌曲的 15 秒片段。

人工智能经过训练,可以根据患者的大脑信号重建缺失的歌曲片段。 与原始歌曲片段相比,人工智能生成的歌曲片段听起来像是来自水下,但节奏完整,歌词模糊但仍可辨认。

研究小组发现,一个名为颞上回(gyrus)的大脑区域负责处理歌曲中吉他的节奏。 他们还发现,在处理音乐时,来自大脑右半球的信号比来自左半球的信号更强,这证实了之前研究的结果。 “语言在很大程度上依赖于左脑,而音乐涉及大脑的多个区域,但右脑更占主导地位,”奈特解释道。

设计更好的变声设备

在这项研究中,电极通过手术植入患者的大脑,这使得该研究无法推广到其他更普遍的情况。 但今年早些时候,日本大阪大学的神经科学家 Yu 与谷歌的科学家合作,分析使用功能磁共振成像 (fMRI) 收集的大脑信号,以确定志愿者正在听的音乐类型。 也许用不了多久,科学家就可以利用功能磁共振成像等非侵入性技术将大脑信号转化为音乐。

研究小组希望通过探索大脑如何感知音乐,这项工作最终能够设计出更好的设备,可以将大脑信号直接转化为语言,供有语言障碍的人使用。

“对于患有肌萎缩侧索硬化症(一种神经系统疾病)或失语症(一种言语障碍)的人来说,说话变得困难,我们想要一种听起来像正常人一样交流的设备。了解大脑如何处理语音的音乐元素,包括语气和情感,可以让这些设备听起来不像机器人说话。”

谁真正创作了未来的音乐?

目前,人工智能只能根据大脑信号重建人们正在听的音乐。 但如果未来我们能够突破这个限制,让人工智能重构人们想象中的音乐,那么我们甚至可以利用这项技术来创作音乐。

但使用这项技术创作音乐可能会引发版权争议。 其中,音乐作品的创作者是谁是最难回答的问题。 记录大脑活动的人会是创造者吗? AI本身会成为创造者吗? 被记录大脑活动的人会是创造者吗?

大脑活动被记录的人是否被视为创造者甚至可能取决于所涉及的大脑区域。 无论大脑活动来自大脑的非创造性部分,例如听觉皮层,还是负责创造性思维的额叶皮层,都可能对音乐作品的版权产生不同的影响。 法律专业人士可能需要根据具体情况评估这些复杂的问题。

参考:

广告声明:文章中包含的外部跳转链接(包括但不限于超链接、二维码、密码等)用于传达更多信息,节省选择时间。 结果仅供参考。 IT之家的所有文章均包含此声明。

相关阅读:

暂无相关信息
  • 网站地图 | 联系我们
  • 声明:这就到-知道你所不知道登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不做权威认证,如若验证其真实性,请咨询相关权威专业人士。