我正在运行从这个code获得的tutorial 我正在尝试运行tensorflow对象检测api,所有代码都运行良好,如果运行所有调用,所有单元都将运行良好,最后,我的图像将被分类。
Buuut的1个单元无法正常工作,它可以工作,但不喜欢它必须工作。
我何时使用dat <- data.frame("ID" = c(6,6,6,7,7,10,11,11),
"Admit_Dt" = c('2013-08-12', '2013-12-12', '2016-01-03','2011-04-01', '2011-09-20','2012-02-19','2014-06-24','2014-08-12'),
"Urgent" = c(0,1,1,1,0,0,1,1), stringsAsFactors = F)
library(dplyr)
library(purrr)
library(lubridate)
isUrgentAndWithinYear <- function(urgent, date, date1){
sum( urgent == 1 & abs(as.numeric(difftime(date, date1, units = "weeks"))) < 52)
}
dat %>%
mutate(Admit_Dt = ymd(Admit_Dt)) %>%
group_by(ID) %>%
mutate(urgents = list(Urgent),
admits = list(Admit_Dt)
)%>%
group_by(ID, Admit_Dt) %>%
mutate(Urgent_1yrSum = map2_dbl(urgents, admits, ~ isUrgentAndWithinYear(.x, .y, Admit_Dt) )) %>%
mutate(Urgent_1yrSum = Urgent_1yrSum - Urgent) %>%
select(-urgents, -admits)
训练模型
它会启动tensorflow并开始训练,但只会运行3步,4步,有时运行20、21、23步,最后,谷歌合作实验室在此过程中设置了!python legacy/train.py --logtostderr --train_dir=training/ --pipeline_config_path=training/ssd_mobilenet_v1_pets.config
我永远无法完成培训,因为google colab关闭了我的流程,有人知道发生了什么事吗?
我已经尝试使用GPU和TPU实例。
^C
答案 0 :(得分:2)
我同意鲍勃·史密斯(Bob Smith)的“内存不足”问题。您可以通过使用Haohui的简单技巧将内存从12GB升级到25GB来应对。在Colab中运行以下代码:
a = []
while(1):
a.append('1')
它将使会话崩溃,并且在屏幕的左下方会显示一条消息“您想切换到高RAM运行时...吗?”。
答案 1 :(得分:0)
您可以使用以下GitHub repo在Google Colab上训练张量流对象检测模型。它具有自述文件,.ipynb文件,模型配置文件和示例label_map文件。如果您遇到任何问题,请告诉我。希望这会有所帮助
答案 2 :(得分:0)
我知道这很旧,但是我遇到了同样的问题,无法找到解决方案。 发生这种情况是因为我忘记在
下启用GPU运行时->更改运行时类型
,而我的代码使用了gpu(使用pytorch cuda)。
更多信息:https://medium.com/deep-learning-turkey/google-colab-free-gpu-tutorial-e113627b9f5d Enable GPU in Colab
答案 3 :(得分:0)
您也可以尝试减小.config文件中的“ batch_size”。