我正在训练一个 RNN (https://gist.github.com/karpathy/d4dee566867f8291f086) 来重现一些 ASCII 图像而不是纯文本。
如何评估我的结果,至少精确度和准确性?我没有足够的数据和经验来使用 TensorBoard。是否有任何“手动”方法可以将每次运行的损失值与超参数(hidden_size、input_sequence、learning_rate)的值相关联?
也只是一个关于如何绘制它的提示(可视化而不是数字评估)会很棒!
先谢谢大家!
这是我试图评估的那种结果:) 实际上,我需要将此图像与我的输入数据进行比较,以查看它们的相似程度。