Python Sklearn神经网络分类器迭代和丢失

时间:2018-05-09 02:52:54

标签: python machine-learning scikit-learn neural-network

我试图实现我读过的一篇论文。基本上它使用3个具有不同参数的神经网络分类器来处理相同的贷款默认数据,具有9种不同的训练测试比率。

为了找到最佳参数,我们使用以下标准,当(1)0.0.0.0:8000时 (2)损失值小于0.008,我们测量精度值,并选择最佳。

但是,当我尝试使用python max_iteration=25000完成此操作时,我遇到了一个问题。当训练测试比率增加时,程序运行的迭代时间急剧下降。同时,损失值增加,

分类器效果表

enter image description here

这显然不是我想要的,迭代次数应该在停止之前保持上升到25000。

这就是我定义classifer的方式:

sklearnsklearn.neural_network.MLPClassifier

正如您所看到的,我已经设置了clf1= MLPClassifier(activation='relu',solver='sgd',early_stopping=False,alpha=1e-5,max_iter=25000,\ hidden_layer_sizes=(18),momentum=0.7,learning_rate_init=0.0081,tol=0,random_state=3) clf2= MLPClassifier(activation='relu',early_stopping=False,solver='sgd',alpha=1e-5,max_iter=25000,\ hidden_layer_sizes=(23),momentum=0.69,learning_rate_init=0.0095,tol=0,random_state=3) clf3= MLPClassifier(activation='relu',early_stopping=False,solver='sgd',alpha=1e-5,max_iter=25000,\ hidden_layer_sizes=(27),momentum=0.79,learning_rate_init=0.0075,tol=0,random_state=3) ,因此每次迭代时,它都可以减少损失。而且我尝试了其他值,但仍然,迭代次数比我预期的要小。

希望有人可以帮助我,谢谢!

0 个答案:

没有答案