我正在寻找针对我的数据的tensorflow中的alexnet和googlenet的multigpu现成算法。我找到了许多基准代码,例如convnet bench,http://www.comp.hkbu.edu.hk/%E2%88%BCchxw/dlbench.html[1]。但没有什么能满足我的上述需要。例如,在caffe的情况下,我只是运行
caffe train --solver=googlenet.prototxt --gpu=0,1,2,3,4,5,6,7
同样在CNTK的情况下,我运行
mpiexec -n <#workers> python AlexNet_ImageNet_Distributed.py -datadir myimages/
MXNet还提供了更简单的界面来运行alexnet和googlenet。
我也看着苗条的张力流
DATASET_DIR=/tmp/imagenet
TRAIN_DIR=/tmp/train_logs
python train_image_classifier.py \
--train_dir=${TRAIN_DIR} \
--dataset_name=imagenet \
--dataset_split_name=train \
--dataset_dir=${DATASET_DIR} \
--model_name=inception_v3
但目前尚不清楚要在model_deploy中更改什么来定义使用multi gpu。
然而,在tensorflow中,我找不到任何现成的东西,只需要运行gpu的数量和在多个gpu中训练的图像路径。是否有任何现成的python / c ++代码我可以使用或者我需要通过从tensorflow扩展cifar_10_multi_gpu示例来自己构建一个?
答案 0 :(得分:0)
按export CUDA_VISIBLE_DEVICES=0,1,2,3,...