我是机器学习的新手,面对一种情况 如何在多元线性回归中删除多个自变量。 我已经完成的步骤:1)读取数据集2)分别分为X和Y 3)对分类数据进行编码,因为数据集包含列:教授排名,职业等... 4)删除虚拟变量5)OLS回归结果。
我有7个自变量,在OLS之后,我有6个自变量。由于P值大于0.05的显着性水平,因此被P> 0.05去除。
您能建议通过删除图像中所有不必要的自变量来绘制图形的步骤吗?如何从所有这些变量中仅一个自变量。
如何使用python检查多重共线性?什么是VIF以及如何使用它检测多重共线性
先谢谢了。 很抱歉有语法错误。
答案 0 :(得分:2)
很难形象化多维线性关系。 This post分享了一些常见的可视化方法。
多重共线性是回归的大问题,这会导致Beta中的系数怪异。 VIF是用于检测此情况的工具之一。通常,VIF越接近1越好。
如果您具有多重共线性,则可能要继续使用以下选项之一: