我正在尝试将edgetpu USB加速器与Intel ATOM单板计算机和C ++ API配合使用以进行实时推断。
edgetpu的C ++ API基于TensorFlow lite C ++ API。我需要包括tensorflow / lite目录中的头文件(例如tensorflow / lite / interpreter.h)。
我的问题是我只能使用Lite构建Tensorflow(不能用于训练的其他操作)吗?如果是,我该怎么办?
因为安装所有内容都需要很长时间。
答案 0 :(得分:0)
假设您使用的是基于Linux的系统,则以下说明应适用:
克隆存储库,然后检出到稳定版本(当前为r1.14
):
git clone https://github.com/tensorflow/tensorflow
git checkout r1.14
cd tensorflow
下载依赖项:
./tensorflow/lite/tools/make/download_dependencies.sh
构建它(默认情况下,它会构建Linux库,其他平台也有其他选项):
make -f ./tensorflow/lite/tools/make/Makefile
现在,您需要在项目中链接已构建的库,并将其添加到您的makefile中:
TENSORFLOW_PATH = path/to/tensorflow/
TFLITE_MAKE_PATH = $(TENSORFLOW_PATH)/tensorflow/lite/tools/make
CLAGS += \
-L$(TFLITE_MAKE_PATH)/gen/linux_x86_64/obj \
-L$(TFLITE_MAKE_PATH)/gen/linux_x86_64/lib/ \
-ltensorflow-lite -ldl
答案 1 :(得分:0)
您需要一个不在tensorflow回购中的独立构建。我有tensorflow lite project可以为您提供帮助,您需要针对相应的平台类型交叉编译它。