所以我在Android上运行了tensorflow object detection API
我注意到在处理从相机拍摄的帧之前的代码中,它们是CameraActivity.java
中的转换:
imageConverter =
new Runnable() {
@Override
public void run() {
ImageUtils.convertYUV420SPToARGB8888(bytes, previewWidth, previewHeight, rgbBytes);
}
};
我试着查一下,我只理解两种类型之间的区别,但我无法理解为什么这种转换是必要的(或者更可取的)..
这是转换,因为它是实时发生的,并且每一帧都会影响预览或处理时间吗?
任何信息或解释都非常受欢迎,即使它是基本的