在scikit-learn
包中,我们找到了函数LogiticRegresion
。但是参数不包括创建多层神经网络的能力
LogisticRegression(penalty=’l2’, dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver=’liblinear’, max_iter=100, multi_class=’ovr’, verbose=0, warm_start=False, n_jobs=1)
是否有任何功能或其他,允许您添加隐藏图层的变通方法?我发现的关闭函数是MLPClassifier
允许使用多层,但输出是分类的类。
答案 0 :(得分:1)
Logistic回归和神经网络不尽相同,您可以在https://en.wikipedia.org/wiki/Logistic_regression中了解更多信息。此外,尽管它的名称LogisticRegression也进行了分类,唯一的区别是它输出属于一个类的示例的百分比机会。
对于scikit-learn中的神经网络,您应该使用MLPClassifier进行分类,使用MLPRegressor进行回归:http://scikit-learn.org/stable/modules/neural_networks_supervised.html。
但是,如果您正在寻找概率(如Logistic回归),您可以使用predict.proba使您的神经网络输出概率。
答案 1 :(得分:1)
Logistic回归不是用于执行回归,尽管它的名称。
Logistic回归通常不被认为是神经网络(尤其是统计界的统计学家),但他们can be interpreted as single layer neural networks。
您可能正在寻找MLPRegressor课程。
答案 2 :(得分:0)
scikit-learn类假设仅作为LogisticRegression(具有Logistic(a.k.a. Soft step)激活函数的1层前馈神经网络)。
Scikit-learn中有Neural Network个模型,但我建议使用Tensorflow,Theano和Keras。 最后一个是初学者的最佳选择。