tensorflow中心文档具有以下用于文本分类的示例代码:
hub_layer = hub.KerasLayer("https://tfhub.dev/google/tf2-preview/nnlm-en-dim50/1", output_shape=[50],
input_shape=[], dtype=tf.string)
model = keras.Sequential()
model.add(hub_layer)
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))
model.summary()
我不明白我们如何确定16是否是relu
层的正确幻数。有人可以解释一下吗?
答案 0 :(得分:0)
在隐藏层中选择16个单位并不是唯一确定的魔法值。正如Shubham所评论的那样,这全都在于试验和寻找对您的问题有效的价值。以下是一些民间传说来指导您的实验: