我们正在使用tensorflow-lite在android中进行语义分割应用。使用的'.tflite'deeplabv3模型的输入类型为(ImageTensor)uint8 [1,300,300,3],输出类型为(SemanticPredictions)uint8 [300,300]。我们可以通过tflite.run方法成功运行模型并以ByteBuffer格式获取输出,但是我们无法从java中的此输出中提取图像。实际上是从TF模型“'mobilenetv2_dm05_coco_voc_trainval'”转换为tflite格式的。
该问题似乎类似于以下stackoverflow问题:tensorflow-lite - using tflite Interpreter to get an image in the output
有关浮点数据类型转换的问题似乎已在github问题中修复:https://github.com/tensorflow/tensorflow/issues/23483
那么,如何从UINT8模型输出中正确提取分割蒙版?
答案 0 :(得分:0)
类似的东西:
Byte[][] output = new Byte[300][300];
Bitmap bitmap = Bitmap.createBitmap(300,300,Bitmap.Config.ARGB_8888);
for (int row = 0; row < output.length ; row++) {
for (int col = 0; col < output[0].length ; col++) {
int pixelIntensity = output[col][row];
bitmap.setPixel(col,row,Color.rgb(pixelIntensity,pixelIntensity,pixelIntensity));
}
?
答案 1 :(得分:0)
尝试以下代码:
/**
* Converts ByteBuffer with segmentation mask to the Bitmap
*
* @param byteBuffer Output ByteBuffer from Interpreter.run
* @param imgSizeX Model output image width
* @param imgSizeY Model output image height
* @return Mono color Bitmap mask
*/
private Bitmap convertByteBufferToBitmap(ByteBuffer byteBuffer, int imgSizeX, int imgSizeY){
byteBuffer.rewind();
byteBuffer.order(ByteOrder.nativeOrder());
Bitmap bitmap = Bitmap.createBitmap(imgSizeX , imgSizeY, Bitmap.Config.ARGB_4444);
int[] pixels = new int[imgSizeX * imgSizeY];
for (int i = 0; i < imgSizeX * imgSizeY; i++)
if (byteBuffer.getFloat()>0.5)
pixels[i]= Color.argb(100, 255, 105, 180);
else
pixels[i]=Color.argb(0, 0, 0, 0);
bitmap.setPixels(pixels, 0, imgSizeX, 0, 0, imgSizeX, imgSizeY);
return bitmap;
}
它适用于具有单色输出的模型。