谷歌推出了一种新的人工智能,可以通过解释你的大脑活动来创作音乐。
![](https://img.phonandroid.com/2023/08/91804433_m_normal_none.jpg)
在一项名为“Brain2music:从人类大脑活动重建音乐”,来自大阪大学和国家信息通信技术研究所的研究人员与谷歌和 Araya 合作,展示了他们的工作成果人工智能与人脑活动的关系。
阅读——多亏了这个人工智能,谷歌很快就能让我们与机器人自然地对话
他们创造了一种“从音乐中重建音乐的方法”使用磁共振成像捕获大脑活动功能性”。为了做到这一点,科学家们利用了MusicLM,一种能够根据文本描述生成音乐的人工智能由谷歌设计。 Brain2Music 的人工智能不是根据文本创作音乐,而是解释从 MRI 扫描获得的大脑活动数据。
Brain2Music 是 Google 的新人工智能,可以将你的想法转化为音乐
训练Brain2Music 基础上的神经网络,研究小组对五名受试者进行了15 秒的音乐样本,风格多样,如摇滚乐、雷鬼、爵士乐或金属。然后使用功能磁共振成像获得的视频允许人工智能在大脑的模式和激活区域之间建立联系取决于听到的音乐的不同特征(例如节奏、氛围、动态)。一旦这些数据被解释并翻译成文字,剩下的就是将其提供给 MusicLM,以便它可以“重新创作”原始歌曲。
据工作组称,实验结果非常有说服力:“生成的音乐类似于人类受试者在流派、乐器和情绪等语义属性方面经历的音乐刺激。”想要“用思想”创作音乐的作曲家还需要等待一段时间。如果人工智能取得了伟大的成就,重建的作品远非忠实在源头。