作者投稿和查稿 主编审稿 专家审稿 编委审稿 远程编辑

计算机工程 ›› 2019, Vol. 45 ›› Issue (5): 249-255,260. doi: 10.19678/j.issn.1000-3428.0050596

• 多媒体技术及应用 • 上一篇    下一篇

基于charRNN的复音音乐生成方法

王思源,周建国   

  1. 武汉大学 电子信息学院,武汉 430072
  • 收稿日期:2018-03-05 出版日期:2019-05-15 发布日期:2019-05-15
  • 作者简介:王思源(1994—),男,硕士研究生,主研方向为多媒体处理、智能信息;周建国,副教授、博士。
  • 基金资助:

    国家重点研发计划(2017YFB0504103)。

Polyphonic music generation method based on charRNN

WANG Siyuan,ZHOU Jianguo   

  1. School of Electronic Information,Wuhan University,Wuhan 430072,China
  • Received:2018-03-05 Online:2019-05-15 Published:2019-05-15

摘要:

在音乐生成过程中,charRNN方法只能对单音音乐进行训练,而不适用于多个乐器合奏的复音音乐。为使charRNN能适用于复音音乐,提出一种将MIDI音乐转换为一种基于一定语法规则的音乐描述语言的方法。利用charRNN完成文本训练,得到音乐生成模型,基于十二平均律方法获得音乐的统计特性,从而比较不同音乐片段间的差异。实验结果表明,该方法生成的音乐与真实音乐在结构和听感上比较相似,可用于多轨道复音音乐的自动生成。

关键词: 长短期记忆, 复音音乐, 自动创作, 深度学习, 计算机音乐

Abstract:

In the music generation process,the charRNN method can only train monophonic music,and is not suitable for polyphonic music of multiple instrumental ensembles.In order to make charRNN suitable for polyphonic music,a method of converting MIDI music into a music description language based on certain grammatical rules is proposed.The text training is completed by using charRNN,thus obtaining a music generation model.The statistical properties of the music are obtained based on the theory of twelve-tone temperament method to compare the differences between the different pieces of music.Experimental results show that the music generated by this method is similar to the real music in structure and hearing,and can be used for automatic generation of multi-track polyphonic music.

Key words: Long Short-Term Memory(LSTM), polyphonic music, automatic composition, deep learning, computer music

中图分类号: