Python TFlearn - 损失太高

时间:2017-06-30 04:49:00

标签: python machine-learning tensorflow tflearn

在解决输入形状问题后,我运行了我的程序,问题是程序打印的总损失太高(如果我将它与例如快速入门教程中的那个进行比较)。

我的目标是通过使用过去的数据来预测未来进入的拥堵(我有超过10M的条目并且标记了分数)所以我不应该有训练问题。

这是我的代码:

import numpy as np
import tflearn

# Load CSV file, indicate that the first column represents labels
from tflearn.data_utils import load_csv
data, labels = load_csv('nowcastScaled.csv', has_header=True, n_classes=2)

# Preprocessing function
def preprocess(data):
    return np.array(data, dtype=np.float32)

# Preprocess data
data = preprocess(data)

# Build neural network
net = tflearn.input_data(shape=[None, 2])
net = tflearn.fully_connected(net, 32)
net = tflearn.fully_connected(net, 32)
net = tflearn.fully_connected(net, 2, activation='linear')
data = np.reshape(data, (-1, 2))
labels = np.reshape(labels, (-1, 2))
net = tflearn.regression(net, optimizer='adam', learning_rate=0.001,
                         loss='categorical_crossentropy')

# Define model
model = tflearn.DNN(net)
# Start training (apply gradient descent algorithm)
model.fit(data, labels, n_epoch=15, batch_size=16, show_metric=True)

# Training
model.save('test_Model')
model.load('test_Model')
score = model.evaluate(data, labels, batch_size=16)

我的excel文件有这种外观(2列,100 000个lignes)

calculed_at , congestion
1 , 56
2 , 21

这就是结果的样子(15世纪):

Training samples: 50000
Validation samples: 0
....
--
Training Step: 40625  | total loss: 15.27961 | time: 17.659s
| Adam | epoch: 013 | loss: 15.27961 - acc: 0.7070 -- iter: 50000/50000
--
Training Step: 43750  | total loss: 15.66268 | time: 17.549s
| Adam | epoch: 014 | loss: 15.66268 - acc: 0.7247 -- iter: 50000/50000
--
Training Step: 46875  | total loss: 15.94696 | time: 18.037s
| Adam | epoch: 015 | loss: 15.94696 - acc: 0.7581 -- iter: 50000/50000
--

您对可能导致如此高损失的原因有所了解吗?这看起来很奇怪,因为印刷的准确性看起来并不太糟糕。谢谢你的帮助。

编辑:这是我拍摄这些价值的好时刻,因为我刚试过的时候总损失超过280(准确度低于0.3或略高于)。 / p>

1 个答案:

答案 0 :(得分:1)

对于时间序列,您可以通过考虑时间窗框来构造输入/输出样本。在每个窗口中,如果样本为{0, 1, ...N},则选择第一个N-1样本作为输入,选择最后一个样本作为输出。然后你可以做回归来做time prediction