标签: tensorflow recurrent-neural-network
作为正则化器的辍学在tensorflow中得到很好的实现。这包括RNN中各层之间的丢失。是否有人对RNN中的时间步长之间的状态实施辍学,可能与RNNDROP或其他方式相同?