如何知道数据量应该用于广泛而深入的学习"模型?

时间:2017-09-20 07:20:35

标签: python tensorflow deep-learning

我是深度学习的初学者,遵循tensorflow wide_n_deep_learning_tutorial的代码,我想用自己的数据设计自己的预测模型。数据非常大,超过100万个例子,我必须确定应该将多少数据输入模型进行培训。众所周知,旧的方法是绘制曲线(数据与得分之间的关​​系),如enter image description here

专注于广泛而深入的学习示例代码,有没有办法在张量板中绘制该曲线,或者是否有其他方法可以找出数据量与模型精度之间的关系?

1 个答案:

答案 0 :(得分:0)

您可以使用Tensorflow摘要执行此操作,这些摘要本质上是日志。并且为了编写日志,您需要一个日志编写器(或称为tensorflow的内容)一个SummaryWriter。因此,您应该在列车循环之前添加以下行。

writer = tf.train.SummaryWriter(logs_path, graph=tf.get_default_graph())

这将创建一个日志文件夹并保存图形结构。训练结束后,您可以启动张量板,它会显示所有图表。

tensorboard --logdir=<your-path-to-the-log-dir> --port 6006

编辑:要记录动态值,您必须添加更多这样的说明

tf.scalar_summary("cost", cross_entropy)
tf.scalar_summary("accuracy", accuracy)

要获得简短易学的教程,请转到here(已弃用)

Here您可以根据MNIST示例找到有关Tensorboard的官方教程