我有一个简单的多层感知器模型,它基于Python构建并存储为包含三层的protobuff:
H_1 (形状= [216256]) - >的 H_2 (形状= [256256]) - >的 h_out (形状= [256,3])
我使用TensorFlowInferenceInterface加载它并打印出操作:这似乎是正确的
h_out:Const' h_out:0' shape = [256,3] dtype = FLOAT
h_2:Const' h_2:0' shape = [256,256] dtype = FLOAT
h_1:Const' h_1:0' shape = [216,256] dtype = FLOAT
然而,当我尝试像这样提供/运行/获取它时
inferenceInterface.feed("h_1:0", input, 216, 1);
inferenceInterface.run(new String[]{"h_out"});
inferenceInterface.fetch("h_out:0", **RESULT**);
结果是一个长度为768的浮点数组,而不是我希望得到的3。
如果我做错了,请告诉我。
感谢。