我正在尝试对TensorFlow functions
进行配置,以进行培训CIFAR-10 dataset
。我修改了TensorFlow提供的内置cifar-10 example
,以创建timeline.json
文件。
这是网络体系结构:
conv-pool-norm-conv-norm-pool-fc-fc
几个时期之后,我停止了训练,以查看执行时间配置文件。时序细分按降序排列:
..等等。
我希望Conv2D
,Conv2DBackpropFilter
和Conv2DBackpropInput
是主要的贡献因素,但不确定LRNGrad
和LRN
为何占据如此大的份额时间。
有人可以指出我的分析方法是否做错了,还是其他原因?
谢谢。