这是制作协议缓冲区的程序。
# -*- coding:utf-8 -*-
import tensorflow as tf
session = tf.Session()
matrix1 = tf.constant([[1., 3.]], name='input1')
matrix2 = tf.constant([[2., 2.]], name='input2')
mat_add = tf.add(matrix1, matrix2, name='output1')
mat_sub = tf.subtract(matrix1, matrix2, name='output2')
session.run(mat_add)
session.run(mat_sub)
tf.train.write_graph(session.graph.as_graph_def(), "./models/", "simple.pb", as_text=False)
session.close()
这是与TensorFlowInferenceInterface接口的java代码的主要部分。
inferenceInterface = new TensorFlowInferenceInterface(getAssets(),MODEL_FILE);
input1[0] = (float) 5.0; input1[1] = (float) 6.0;
input2[0] = (float) 2.0; input2[1] = (float) 3.0;
inferenceInterface.feed("input1", input1, new long[]{1,2});
inferenceInterface.feed("input2", input2, new long[]{1,2});
inferenceInterface.run(new String[]{"output1","output2"});
inferenceInterface.fetch("output1", output1);
inferenceInterface.fetch("output2", output2);
for(float f : output1)
Log.i(TAG, "output1: " + f);
for(float f : output2)
Log.i(TAG, "output2: " + f);
这是result
添加结果总是正确的,但是子结果总是为[1.0,1.0],这就是为什么我无法弄清楚,加法和减法的运算几乎相同,而减法总是错误的并成为一个 修复价值。 任何意见都会有所帮助!请告诉我原因。 提前谢谢!
答案 0 :(得分:1)
谢谢灰!通过更改代码
解决了这个问题matrix1 = tf.constant([[1., 3.]], name='input1')
matrix2 = tf.constant([[2., 2.]], name='input2')
到
matrix1 = tf.placeholder(dtype=tf.float32, shape=(1,2), name='input1')
matrix2 = tf.placeholder(dtype=tf.float32, shape=(1,2), name='input2')