我正在使用LSTM生成巴赫风格的作品。到目前为止,我仅使用单个声音的旋律序列就取得了成功,即,我能够生成单个旋律行,且每个音符的固定时长为固定时间。
现在,我正在尝试对在某些巴赫合唱曲中发现的四个声音以及音符的持续时间进行建模(请参阅{{{ 3}})。
问题在于,我的LSTM有时会停止学习。这是我的架构:
对于每个声音,我提取L个音符序列作为输入,并提取下一个音符作为输出。然后,我在音符持续时间内也做同样的事情。所以我有:
voice0_x = sequence of notes, sequence of duration
voice0_y = next note, next duration
voice1_x = ... the same
voice1_y = ... the same
然后,nnet代码如下:
input_notes = Input(shape=(notes_in.shape[1], notes_in.shape[2]))
note_out = LSTM(256, return_sequences=True)(input_notes)
input_durations = Input(shape=(durations_in.shape[1], durations_in.shape[2]))
duration_out = LSTM(256, return_sequences=True)(input_durations)
merge = concatenate([note_out, duration_out])
merge = Flatten()(merge)
merge = Dense(512, activation='relu')(merge)
merge = Dropout(0.3)(merge)
note_final = Dense(notes_out.shape[1], activation='softmax')(merge)
duration_final = Dense(durations_out.shape[1], activation='softmax')(merge)
model = Model(inputs=[input_notes, input_durations], outputs=[note_final, duration_final])
model.compile(loss=['categorical_crossentropy', 'categorical_crossentropy'], optimizer = 'rmsprop')
因此,我只输入注释和持续时间序列以分离LSTM,将它们的输出连接起来,然后将所有内容发送到密集层。网络显然正在学习,但损失在〜12.35处停止减少:
loss: 12.3549 - dense_2_loss: 6.3240 dense_3_loss: 6.0309
我尝试增加LSTM细胞的数量,但没有成功。假设每个声音的旋律线之间都有关系(持续时间相同),那是正确的架构吗?我应该增加更多的细胞数量吗?
更清楚一点,假设我的目标是“过拟合”输入数据,因此从理论上讲网络应该收敛到一个很小的损耗值,但这没有发生。
感谢您的帮助,如果需要,我可以提供更多详细信息。