机器学习/ Tensorflow:模型最终停滞到一定的精度

时间:2017-07-01 18:08:34

标签: python machine-learning tensorflow neural-network tensorboard

我目前正在尝试将神经网络算法应用于二元期权,但我遇到了一些问题。

我选择使用前馈多层神经网络,而我正在使用张量流。

我的数据集是这样的:
- 每个文件包含大约80 000个输入和输出向量,代表一个月的数据 - 每个输入向量由我想要在参考日期之前每m秒/分钟研究的货币对的n个值组成 - 值在0和1之间重新调整,输入矢量的最小值将重新调整为0,最大值重新调整为1。 - 我有47个这样的文件,所以一个纪元包含大约80 000 * 47 = 3 760 000个例子。

对于我的几乎所有尝试,我使用的批量大小为5000,学习率为0.0001,我将隐藏层的数量从2改为15。

以下是我在验证集上的一些结果,数据集的1/3(张量板图上的一个步骤对应于一个数据文件,或者是一个时代的1/47):

Hidden layers : 3
Hidden layers : 10

正如您所注意到的,准确性正确地增长然后开始停滞在54%左右。

你们有什么想法我可以做些什么来避免这种情况?当它开始停滞时我试图降低学习率,但它不起作用。我是否必须增加隐藏层数?但在这种情况下,学习可能需要一段时间。或者我必须以另一种方式格式化我的数据?就像试图修改2个值之间的时间一样?或者有更大的输入层?

谢谢大家!

0 个答案:

没有答案