Google和日本大阪大學發表一項將思想轉化為音樂的技術的研究。

Google和日本大阪大學徵求了五名志願者進入 fMRI(功能性磁共振成像)掃描儀中,
在這當中播放了 10 種音樂風格的 500 多首不同曲目作為刺激,得到了一些有趣的結果。

五名志願者大腦受到刺激後會創建圖像,被捕捉到的大腦活動圖像被輸入到名為 Brain2Music 的人工智能模型中,該模型學會使用Google的人工智能音樂產生器 MusicLM 創作與受試者正在聽的歌曲類似的歌曲。

研究人員表示,下一步將是使用人工智能純粹根據某人的想像力而不是特定的音樂刺激來生成音樂。

當然,距離心靈感應 DAW 的出現還有一段路要走——除非你的臥室工作室裡碰巧有一台功能磁共振成像掃描儀。

整篇研究論文可在康奈爾大學的免費在線學術文章檔案庫 arXiv 上取得。

About the Author:

發佈留言