我有10个CSV文件[critical_001.csv,critical_002.CSV .. non_critical_001.csv,non_critical_002.csv ....]。每个csv文件有336行和3列[功能]。我想将这些数据集提供给神经网络(keras),以将给定的csv文件分类为" Critical"或" not_critical"。
到目前为止我采取的措施: (在每个文件中添加了一列来分类1-critical 0-non-critical) 1.将CSV文件放在一个文件夹中 2.将所有CSV文件读入pandas数据框 该模型的准确率为50%。有没有办法提高准确性。
model = Sequential()
model.add(Dense(100, input_dim=3, init='uniform', activation='tanh'))
model.add(Dropout(0.2))
model.add(Dense(100, init='uniform', activation='tanh'))
model.add(Dropout(dropout))
model.add(Dense(2, init='uniform', activation='softmax'))
model.compile(loss='mse', optimizer='sgd', metrics=['accuracy'])
答案 0 :(得分:1)
你还没有说明问题是什么:
但考虑到数据的形状和预测任务(分类):
我假设您在3360(336 * 10个文件)上有3个功能
以下是可以帮助您入门的模型的基本版本:
from keras.models import Sequential
from keras.layers import Dense
hidden_dim = 10
output_dim = 1 # model will output probability of positive class
num_features = 3
model = Sequential()
model.add(Dense(1, input_shape(num_features, ), activation='sigmoid')
model.compile(loss='binary_crossentropy', optimizer='sgd')
model.fit(X, y)