Tensorflow对象检测后量化的精度下降

时间:2018-12-10 19:06:54

标签: tensorflow tensorflow-lite quantization

我正在针对自定义数据集微调SSD Mobilenet v2。我正在对模型进行5万步的微调,并在48k步数的基础上加入了量化意识的训练。

graph_rewriter {
  quantization {
    delay: 48000
    weight_bits: 8
    activation_bits: 8
  }
}

我在训练后观察了95%以上的培训,验证和测试mAP。

使用命令量化后

python object_detection/export_tflite_ssd_graph.py 
--pipeline_config_path=${CONFIG_FILE} 
--trained_checkpoint_prefix=${CHECKPOINT_PATH} 
--output_directory=${OUTPUT_DIR} --add_postprocessing_op=true

./bazel-bin/tensorflow/contrib/lite/toco/toco 
 --input_file=${OUTPUT_DIR}/tflite_graph.pb \
 --output_file=${OUTPUT_DIR}/detect.tflite \
 --input_format=TENSORFLOW_GRAPHDEF \
 --output_format=TFLITE \
 --inference_type=QUANTIZED_UINT8 \
 --input_shapes="1,300,300,3" \
 --input_arrays=normalized_input_image_tensor \
 --output_arrays="TFLite_Detection_PostProcess","TFLite_Detection_PostProcess:1","TFLite_Detection_PostProcess:2","TFLite_Detection_PostProcess:3" \
 --std_values=128.0 --mean_values=128.0 --allow_custom_ops --default_ranges_min=0 --default_ranges_max=6

我使用相同的测试集测试了生成的detect.tflite模型。我发现mAP下降到了约85%。

这个mAP编号会下降吗?如何改善量化后的mAP?

0 个答案:

没有答案