我正在使用具有日志丢失功能的sklearn&#SGDClassifier来执行逻辑回归。
model = sklearn.linear_model.SGDClassifier(random_state=0, verbose=1,loss='log',n_iter=iterat)
result = model.fit(X, y)
我设置了verbose = 1来查看错误的样子。
该模型看起来好像会在第858次迭代时收敛(logloss = 0.1562),但是logloss突然再次上升到非常高的值
大纪元856 标准:5.19,NNZs:104,偏差:-1.158471,T:4280000000,平均损失:0.156228 总训练时间:2186.96秒。
大纪元857 标准:5.19,NNZs:104,偏差:-1.158562,T:4285000000,Avg。损失:0.156217 总训练时间:2189.51秒。
大纪元858 标准:5.19,NNZs:104,偏差:-1.158651,T:4290000000,Avg。损失:0.156205 总培训时间:2192.06秒。
大纪元859 标准:5.19,NNZs:104,偏差:-1.158744,T:32704,平均。损失:20512.848380 总培训时间:2194.61秒。
大纪元860 标准:5.19,NNZs:104,偏差:-1.158834,T:5032704,平均损失:133.443993 总培训时间:2197.16秒。
大纪元861 标准:5.19,NNZs:104,偏差:-1.158925,T:10032704,Avg。损失:67.012436 总训练时间:2199.71秒。
有人知道为什么会这样吗?提前谢谢