使用功能normalizer_fn和批处理规格化是否相关?

时间:2019-10-05 14:13:05

标签: tensorflow batch-normalization

同时使用功能normalizer_fn和批处理规格化是否有意义?


 feature_columns_complex_standardized = [         
          tf.feature_column.numeric_column("my_feature", normalizer_fn=lambda x: (x - xMean) / xStd)
        ]

          model1 = tf.estimator.DNNClassifier(feature_columns=feature_columns_complex_standardized,
                                            hidden_units=[512,512,512],
                                            optimizer=tf.train.AdamOptimizer(learning_rate=0.001, beta1= 0.9,beta2=0.99, epsilon = 1e-08,use_locking=False),
                                            weight_column=weights,
                                            dropout=0.5,
                                            activation_fn=tf.nn.softmax,
                                            n_classes=10,
                                            label_vocabulary=Action_vocab,
                                            model_dir='./Models9/Action/',
                                            loss_reduction=tf.losses.Reduction.SUM_OVER_BATCH_SIZE,
                                            config=tf.estimator.RunConfig().replace(save_summary_steps=10),
                                            batch_norm=True)

1 个答案:

答案 0 :(得分:1)

您可能会误会,因为Normalization是用于将数据集中的要素按相同比例缩放的一种方法,其中batch normalization用于解决{{1} },每当上一层进行参数更新时,每个隐藏单元的输入分布都会更改。

因此您可以同时使用两者。