我的数据框df
包含以下字段:weight
,length
和animal
。前2个是连续变量,而animal
是分类变量,其值为cat
,dog
和snake
。
我想估计体重和体长之间的关系,但这需要以动物的类型为条件,因此我将长度变量与animal
分类变量进行交互。
model = ols(formula='weight ~ length * animal', data=df)
results = model.fit()
如何以编程方式提取重量和长度之间关系的斜率,例如蛇?我了解如何手动执行此操作:将length
的系数添加到animal[T.snake]:length
的系数中。但这有点麻烦和手动,需要我专门处理基本情况,所以我想自动提取这些信息。
此外,我想估计这个斜坡上的误差。我相信我理解如何通过组合标准误差和协方差来计算这一点(更确切地说,执行计算here)。但这比上面更麻烦,我同样想知道是否有提取这些信息的捷径。
我的手动方法计算如下。
编辑(06/22/2015):我的原始代码似乎在计算错误时出错。在用户333700的答案中计算出的标准误差与我计算的不同,但我没有随时投入查明原因。
def get_contained_animal(animals, p):
# This relies on parameters of the form animal[T.snake]:length.
for a in animals:
if a in p:
return a
return None
animals = ['cat', 'dog', 'snake']
slopes = {}
errors = {}
for animal in animals:
slope = 0.
params = []
# If this param is related to the length variable and
# the animal in question, add it to the slope.
for param, val in results.params.iteritems():
ac = get_contained_animal(animals, param)
if (param == 'length' or
('length' in param and
ac is None or ac == animal)):
params.append(param)
slope += val
# Calculate the overall error by adding standard errors and
# covariances.
tot_err = 0.
for i, p1 in enumerate(params):
tot_err += results.bse[p1]*results.bse[p1]
for j, p2 in enumerate(params[i:]):
# add covariance of these parameters
tot_err += 2*results.cov_params()[p1][p2]
slopes[animal] = slope
errors[animal] = tot_err**0.5
这段代码可能看起来有些过分,但在我的实际用例中,我有一个连续变量与两个独立的分类变量交互,每个变量都有大量的类别(以及我需要忽略的模型中的其他术语)出于这些目的)。
答案 0 :(得分:2)
非常简短的背景:
这个问题的一般问题是,如果我们改变解释变量,修正其他解释变量或对其进行平均,预测会如何变化。
在非线性离散模型中,有一种特殊的边缘方法可以计算出这一点,尽管它不是为分类变量的变化而实现的。
在线性模型中,预测的预测和变化只是估计参数的线性函数,我们可以(误)使用t_test
来计算效果,它的标准误差和置信区间。
(旁白:有更多辅助方法正在为statsmodel工作,使这样的预测和边际计算更容易,并且最有可能在今年晚些时候可用。)
作为以下代码的简要说明:
最后,我与预测的结果进行比较,检查我没有犯任何明显的错误。 (我认为这是正确的,但我写得很快。)
import numpy as np
import pandas as pd
from statsmodels.regression.linear_model import OLS
np.random.seed(2)
nobs = 20
animal_names = np.array(['cat', 'dog', 'snake'])
animal_idx = np.random.random_integers(0, 2, size=nobs)
animal = animal_names[animal_idx]
length = np.random.randn(nobs) + animal_idx
weight = np.random.randn(nobs) + animal_idx + length
data = pd.DataFrame(dict(length=length, weight=weight, animal=animal))
res = OLS.from_formula('weight ~ length * animal', data=data).fit()
print(res.summary())
data_predict1 = data = pd.DataFrame(dict(length=np.ones(3), weight=np.ones(3),
animal=animal_names))
data_predict2 = data = pd.DataFrame(dict(length=2*np.ones(3), weight=np.ones(3),
animal=animal_names))
import patsy
x1 = patsy.dmatrix('length * animal', data_predict1)
x2 = patsy.dmatrix('length * animal', data_predict2)
tt = res.t_test(x2 - x1)
print(tt.summary(xname=animal_names.tolist()))
上次打印的结果是
Test for Constraints
==============================================================================
coef std err t P>|t| [95.0% Conf. Int.]
------------------------------------------------------------------------------
cat 1.0980 0.280 3.926 0.002 0.498 1.698
dog 0.9664 0.860 1.124 0.280 -0.878 2.811
snake 1.5930 0.428 3.720 0.002 0.675 2.511
如果给定动物类型的长度从1增加到2,我们可以通过使用预测来验证结果并比较预测体重的差异:
>>> [res.predict({'length': 2, 'animal':[an]}) - res.predict({'length': 1, 'animal':[an]}) for an in animal_names]
[array([ 1.09801656]), array([ 0.96641455]), array([ 1.59301594])]
>>> tt.effect
array([ 1.09801656, 0.96641455, 1.59301594])
注意:我忘记为随机数添加种子,但无法复制数字。