Keras LSTM培训数据格式

时间:2017-02-09 15:42:05

标签: numpy neural-network keras lstm

我正在尝试使用LSTM神经网络(使用Keras)来预测对手在Rock-Paper-Scissor游戏中的下一步行动。

我将输入编码为Rock:[1 0 0],Paper:[0 1 0],Scissor:[0 0 1]。现在我想训练神经网络,但我对训练数据的数据结构有点困惑。

我已将对手的游戏历史存储在.csv文件中,其结构如下:

1,0,0
0,1,0
0,1,0
0,0,1
1,0,0
0,1,0
0,1,0
0,0,1
1,0,0
0,0,1

我试图将每第5个数据用作我的训练标签,并将之前的4个数据用作训练输入。换句话说,在每个时间步,将具有维度3的向量发送到网络,并且我们有4个时间步长。

例如,以下是输入数据

1,0,0
0,1,0
0,1,0
0,0,1

第五个是培训标签

1,0,0

我的问题是Keras的LSTM网络接受什么类型的数据格式?为此目的重新安排数据的最佳方法是什么?如果有帮助,我的不完整代码附加如下:

#usr/bin/python
from __future__ import print_function

from keras.models import Sequential
from keras.layers import Dense, Activation, Dropout
from keras.layers.recurrent import LSTM
from keras.optimizers import Adam

output_dim = 3
input_dim = 3
input_length = 4
batch_size = 20   #use all the data to train in one iteration


#each input has such strcture
#Rock: [1 0 0], Paper: [0 1 0], Scissor: [0 0 1]
#4 inputs (vectors) are sent to the LSTM net and output 1 vector as the prediction

#incomplete function
def read_data():
    raw_training = np.genfromtxt('training_data.csv',delimiter=',')




    print(raw_training)

def createNet(summary=False):
    print("Start Initialzing Neural Network!")
    model = Sequential()
    model.add(LSTM(4,input_dim=input_dim,input_length=input_length,
            return_sequences=True,activation='softmax'))
    model.add(Dropout(0.1))
    model.add(LSTM(4,
            return_sequences=True,activation='softmax'))
    model.add(Dropout(0.1))
    model.add(Dense(3,activation='softmax'))
    model.add(Dropout(0.1))
    model.add(Dense(3,activation='softmax'))
    model.compile(loss='categorical_crossentropy',optimizer='Adam',metrics=['accuracy'])
    if summary:
        print(model.summary())
    return model

if __name__=='__main__':
    createNet(True)

1 个答案:

答案 0 :(得分:2)

LSTM的输入格式应该具有形状(sequence_length,input_dim)。 所以在你的情况下,形状(4,3)的numpy数组应该这样做。

您将为模型提供的内容将是一个numpy形状数组(number_of_train_examples,sequence_length,input_dim)。 换句话说,您将输入number_of_train_examples形状表(4,3)。 建立一个列表:

1,0,0
0,1,0
0,1,0
0,0,1

然后执行np.array(list_of_train_example)。

但是,我不明白为什么要返回第二个LSTM的整个序列?它将输出你的形状(4,4),Dense图层可能会失败。返回序列意味着您将返回整个序列,因此LSTM的每个步骤都会返回每个隐藏的输出。我会将此设置为False,因为第二个LSTM只能获得"摘要"你的密集层可以读取的形状(4,)矢量。 无论如何,即使对于第一个LSTM,它意味着通过输入形状(4,3),您输出具有形状(4,4)的东西,因此您将拥有比该层的输入数据更多的参数...可以&# 39;真的很好。

关于激活,我也会使用softmax,但仅在最后一层,softmax用于获取作为图层输出的概率。从LSTM中使用softmax和在最后一次之前使用Dense是没有意义的。去寻找其他非线性,例如" sigmoid"或" tanh"。

这就是我要做的模型

def createNet(summary=False):
    print("Start Initialzing Neural Network!")
    model = Sequential()
    model.add(LSTM(4,input_dim=input_dim,input_length=input_length,
            return_sequences=True,activation='tanh'))
    model.add(Dropout(0.1))
    # output shape : (4,4)
    model.add(LSTM(4,
            return_sequences=False,activation='tanh'))
    model.add(Dropout(0.1))
    # output shape : (4,)
    model.add(Dense(3,activation='tanh'))
    model.add(Dropout(0.1))
    # output shape : (3,)
    model.add(Dense(3,activation='softmax'))
    # output shape : (3,)
    model.compile(loss='categorical_crossentropy',optimizer='Adam',metrics=['accuracy'])
    if summary:
        print(model.summary())
    return model