Keras BatchNormalization层还是Normalization?

时间:2019-01-07 19:31:55

标签: pandas keras normal-distribution

我正在使用人口普查数据集,并使用以下公式进行归一化:

dtypes = list(zip(X.dtypes.index, map(str, X.dtypes)))
for k,dtype in dtypes:
    if dtype == "float32":
        X[k] -= X[k].mean()
        X[k] /= X[k].std()

this为例。

我发现:

tf.keras.layers.BatchNormalization()

我的模特:

  model = tf.keras.Sequential()
  model.add(tf.keras.layers.Dense(100, activation=tf.nn.relu, input_shape=(input_dim,)))
  model.add(tf.keras.layers.BatchNormalization())
  model.add(tf.keras.layers.Dense(70, activation=tf.nn.relu))
  model.add(tf.keras.layers.Dense(50, activation=tf.nn.relu))
  model.add(tf.keras.layers.Dense(25, activation=tf.nn.relu))
  # The single output node and Sigmoid activation makes this a Logistic Regression.
  model.add(tf.keras.layers.Dense(1, activation=tf.nn.sigmoid))

问题:

1)我可以仅通过添加此额外的层来替换现有的规范化吗?

2)为了进行推断,额外的层也将起作用吗?

0 个答案:

没有答案