如果我有那个NN:
class NeuralNet(nn.Module):
def __init__(self, input_size, hidden_size, num_classes, p=dropout):
super(NeuralNet, self).__init__()
self.fc1 = nn.Linear(input_size, hidden_size)
self.fc2 = nn.Linear(hidden_size, hidden_size)
self.fc3 = nn.Linear(hidden_size, num_classes)
self.dropout = nn.Dropout(p=p)
def forward(self, x):
out = F.relu(self.fc1(x))
out = F.relu( self.dropout(self.fc2(out)))
out = self.fc3(out)
return out
如何为它增加偏见?例如,在隐藏层上。我在网上找不到任何东西。
答案 0 :(得分:0)
这取决于您使用的图层,有些则没有该选项。例如,在线性中,您可以使用:
self.fc1 = nn.Linear(input_size, hidden_size, bias =False) # either true or false, the default is true.
在docs中,您可以查看其他类型的图层是否具有偏置选项。