Tensorflow-lite-从量化模型输出获取位图

时间:2018-12-16 09:47:39

标签: android tensorflow-lite semantic-segmentation deeplab

我们正在使用tensorflow-lite在android中进行语义分割应用。使用的'.tflite'deeplabv3模型的输入类型为(ImageTensor)uint8 [1,300,300,3],输出类型为(SemanticPredictions)uint8 [300,300]。我们可以通过tflite.run方法成功运行模型并以ByteBuffer格式获取输出,但是我们无法从java中的此输出中提取图像。实际上是从TF模型“'mobilenetv2_dm05_coco_voc_trainval'”转换为tflite格式的。

该问题似乎类似于以下stackoverflow问题:tensorflow-lite - using tflite Interpreter to get an image in the output

有关浮点数据类型转换的问题似乎已在github问题中修复:https://github.com/tensorflow/tensorflow/issues/23483

那么,如何从UINT8模型输出中正确提取分割蒙版?

2 个答案:

答案 0 :(得分:0)

类似的东西:

  Byte[][] output = new Byte[300][300];

    Bitmap bitmap = Bitmap.createBitmap(300,300,Bitmap.Config.ARGB_8888);

    for (int row = 0; row < output.length ; row++) {
        for (int col = 0; col < output[0].length ; col++) {
            int pixelIntensity = output[col][row];
            bitmap.setPixel(col,row,Color.rgb(pixelIntensity,pixelIntensity,pixelIntensity));
        }

答案 1 :(得分:0)

尝试以下代码:

    /**
     * Converts ByteBuffer with segmentation mask to the Bitmap
     *
     * @param byteBuffer Output ByteBuffer from Interpreter.run
     * @param imgSizeX Model output image width
     * @param imgSizeY Model output image height
     * @return Mono color Bitmap mask
     */
    private Bitmap convertByteBufferToBitmap(ByteBuffer byteBuffer, int imgSizeX, int imgSizeY){
        byteBuffer.rewind();
        byteBuffer.order(ByteOrder.nativeOrder());
        Bitmap bitmap = Bitmap.createBitmap(imgSizeX , imgSizeY, Bitmap.Config.ARGB_4444);
        int[] pixels = new int[imgSizeX * imgSizeY];
        for (int i = 0; i < imgSizeX * imgSizeY; i++)
            if (byteBuffer.getFloat()>0.5)
                pixels[i]= Color.argb(100, 255, 105, 180);
            else
                pixels[i]=Color.argb(0, 0, 0, 0);

        bitmap.setPixels(pixels, 0, imgSizeX, 0, 0, imgSizeX, imgSizeY);
        return bitmap;
    }

它适用于具有单色输出的模型。