我想使用逻辑回归来预测给定数据集的类(-1 或 +1),我将其拆分如下(在测试集中只预测一个条目):
x_train, x_test = loc_indep[:-1], loc_indep[-1:]
y_train, y_test = loc_target[:-1], loc_target[-1:]
然后我使用以下内容来训练模型:
regr = LogisticRegression()
regr.fit(x_train, y_train)
predictions = regr.predict(x_test)
probabilities = regr.predict_proba(x_test)
print(probabilities) # prints probabilities
鉴于上述情况,probabilities
总是打印 [1. 0.] 或 [0. 1.],这意味着选择 +1 类或 -1 类的概率为 100%。为什么会这样?我预计概率总和为 1,但模型选择了类别 +1,概率为 54%。
答案 0 :(得分:0)
您的代码似乎是正确的。所以这意味着你有一个超级准确的模型(这让我怀疑有什么问题......)。我会建议检查你的训练数据,也许你有一些变量,错误地解释了太多(例如相同的输出)。
还尝试输出训练一个测试精度。如果训练准确度为 100%,而测试准确度低得多,则说明您过度拟合了。然后你将不得不改变一些超参数来避免它。
总而言之,试着理解你的数据,也许区分这两个类是非常容易的,也许正是因为这个原因,你得到了这么好的模型。