我在ipython上运行翻译演示:
>> %run translate.py --data_dir data --train_dir data --max_train_data_size 100000
由于某种原因,该进程会自动被杀死。这是运行的输出。
Preparing WMT data in data/
I tensorflow/core/common_runtime/local_device.cc:25] Local device intra op parallelism threads: 3
I tensorflow/core/common_runtime/local_session.cc:45] Local session inter op parallelism threads: 3
Creating 3 layers of 1024 units.
Created model with fresh parameters.
Reading development and training data (limit: 100000).
reading data line 100000
Killed
我在运行Ubuntu 14.04并且没有gpu的流浪盒上运行它。这可能会发生什么?
答案 0 :(得分:1)
那不是特定的ipython / tensorflow。
像这样的杀戮可以来自linux内核,如果它基本上决定一个进程使用太多内存。