如何避免在R

时间:2018-01-26 08:28:56

标签: r deep-learning keras tidyverse

我有以下代码。数据集可以下载herehere。该数据集包含分类为catdog的图像。

此代码的任务是用于训练猫狗图像数据。 因此,给定一张图片,它可以判断它是猫还是狗。 这是page的动机。以下是完整运行的代码:

library(keras)


# Organize dataset --------------------------------------------------------
options(warn = -1)

# Ths input
original_dataset_dir <- "data/kaggle_cats_dogs/original/"


# Create new organized dataset directory ----------------------------------

base_dir <- "data/kaggle_cats_dogs_small/"
dir.create(base_dir)

train_dir <- file.path(base_dir, "train")
dir.create(train_dir)

validation_dir <- file.path(base_dir, "validation")
dir.create(validation_dir)

test_dir <- file.path(base_dir, "test")
dir.create(test_dir)

train_cats_dir <- file.path(train_dir, "cats")
dir.create(train_cats_dir)

train_dogs_dir <- file.path(train_dir, "dogs")
dir.create(train_dogs_dir)

validation_cats_dir <- file.path(validation_dir, "cats")
dir.create(validation_cats_dir)

validation_dogs_dir <- file.path(validation_dir, "dogs")
dir.create(validation_dogs_dir)

test_cats_dir <- file.path(test_dir, "cats")
dir.create(test_cats_dir)

test_dogs_dir <- file.path(test_dir, "dogs")
dir.create(test_dogs_dir)

# Copying files from original dataset to newly created directory
fnames <- paste0("cat.", 1:1000, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames), 
          file.path(train_cats_dir)) 


fnames <- paste0("cat.", 1001:1500, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames), 
          file.path(validation_cats_dir))

fnames <- paste0("cat.", 1501:2000, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames),
          file.path(test_cats_dir))

fnames <- paste0("dog.", 1:1000, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames),
          file.path(train_dogs_dir))

fnames <- paste0("dog.", 1001:1500, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames),
          file.path(validation_dogs_dir)) 

fnames <- paste0("dog.", 1501:2000, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames),
          file.path(test_dogs_dir))

options(warn = -1)

# Making model ------------------------------------------------------------


conv_base <- application_vgg16(
  weights = "imagenet",
  include_top = FALSE,
  input_shape = c(150, 150, 3)
)


model <- keras_model_sequential() %>% 
  conv_base %>%
  layer_flatten() %>% 
  layer_dense(units = 256, activation = "relu") %>% 
  layer_dense(units = 1, activation = "sigmoid")

summary(model)

length(model$trainable_weights)
freeze_weights(conv_base)
length(model$trainable_weights)



# Train model -------------------------------------------------------------

train_datagen = image_data_generator(
  rescale = 1/255,
  rotation_range = 40,
  width_shift_range = 0.2,
  height_shift_range = 0.2,
  shear_range = 0.2,
  zoom_range = 0.2,
  horizontal_flip = TRUE,
  fill_mode = "nearest"
)

# Note that the validation data shouldn't be augmented!
test_datagen <- image_data_generator(rescale = 1/255)  

train_generator <- flow_images_from_directory(
  train_dir,                  # Target directory  
  train_datagen,              # Data generator
  target_size = c(150, 150),  # Resizes all images to 150 × 150
  batch_size = 20,
  class_mode = "binary"       # binary_crossentropy loss for binary labels
)

validation_generator <- flow_images_from_directory(
  validation_dir,
  test_datagen,
  target_size = c(150, 150),
  batch_size = 20,
  class_mode = "binary"
)


# Compile model -----------------------------------------------------------

model %>% compile(
  loss = "binary_crossentropy",
  optimizer = optimizer_rmsprop(lr = 2e-5),
  metrics = c("accuracy")
)


# Evaluate  ---------------------------------------------------------------

history <- model %>% fit_generator(
  train_generator,
  steps_per_epoch = 100,
  epochs = 30,
  validation_data = validation_generator,
  validation_steps = 50
)


# Plot --------------------------------------------------------------------
plot(history)

上面的示例需要下载外部模型 (使用VGG16架构进行过网络训练的ImageNet)数据集,功能齐全。

conv_base <- application_vgg16(
  weights = "imagenet",
  include_top = FALSE,
  input_shape = c(150, 150, 3)
)


model <- keras_model_sequential() %>% 
  conv_base %>%
  layer_flatten() %>% 
  layer_dense(units = 256, activation = "relu") %>% 
  layer_dense(units = 1, activation = "sigmoid")

使用cat/dog数据集这是合理的。因为VGG16也包含 猫和狗。

实际上,我正在执行相同的任务,分类两种类型的生物细胞而不是两种动物。因此代码是合适的,但似乎我不能使用VGG16作为模型,因为内容不同。

如何在没有conv_base的情况下编写代码(合理的模型)? 如果我仍然需要使用外部模型,那么合理的替代方案是什么?

2 个答案:

答案 0 :(得分:3)

嗯......一个合理的模型可能是一个非常广泛而开放的问题。

您应首先关注@Matias Valdenegro的评论,如果您的结果不好,那么您可以尝试这些解决方案。

VGG16解决方案

首先,最简单的是,您可以在不冻结其重量的情况下使用VGG16模型,只需不要拨打freeze_weights()

这将使VGG16型号重新训练以满足您的需求。但另一方面,你的训练需要更长的时间,因为训练的重量会更多。

在此选项中,您还可以选择不下载预先训练的VGG16权重,方法是将weights = "imagenet"替换为weights=None(或者将&#34替换为无;#34;我认为是NULL)。这将创建一个完全未经训练的VGG16模型。

创建自定义模型

现在,这真是一个充满可能性的世界。您是否使用卷积层,密集层,混合层,选择多少过滤器,单位等。

一个建议是:访问VGG16代码并查看它的架构。它是图像分类的好模型。您可以复制其代码,并根据需要进行一些更改,例如减少过滤器和/或图层的数量(因为对两种类型的单元格进行分类可能比分类任何类型的图像更容易)。

你可以看到它有五个Conv2D + Conv2D + MaxPooling2D块。您可以在模型中尝试2或3个块,看看它是否足以对细胞进行分类。

python中的代码是here,但您可能已经了解如何在R中执行此操作,您只需要查看使用了哪些图层。其他型号可在applications folder中找到。

答案 1 :(得分:1)

如果您的两类细胞可以通过人眼进行合理区分,那么带有预先训练模型的VGG-16将对您有很大的帮助,因为它所学的特征与人类用来区分物体的方式非常相似。唯一不同的是将特征空间映射到新的对象集,例如,如果将其应用于生物细胞,则可能所有圆形细胞属于一个类,而椭圆形细胞属于另一个类(对不起,如果我的例子没有生物学意义) ),所以你只需要重新训练最后一个完全连接的层,或者,如果结果仍然不可接受,冻结顶层重新训练几个底层,就像你引用的博客所显示的那样。您可以尝试使用其他预先训练好的体重网络,例如inceptionv3等。使用列车前重量有助于减少您需要的培训时间和标签数据。