我遵循Orthogonal distance regression方法来使数据适应依赖变量和自变量的错误。
我用简单的直线拟合数据,我的模型是y = ax + b
。
现在,我可以编写代码并绘制适合数据的行,但我无法读取结果:
Beta: [ 2.08346947 0.0024333 ]
Beta Std Error: [ 0.03654482 0.00279946]
Beta Covariance: [[ 2.06089823e-03 -9.99220260e-05]
[ -9.99220260e-05 1.20935366e-05]]
Residual Variance: 0.648029925546
Inverse Condition #: 0.011825289654
Reason(s) for Halting:
Sum of squares convergence
Beta
只是包含模型(a, b)
和Beta Std Error
参数值的数组,相关错误。
关于其他价值观,我不知道其含义。
特别是,我想知道哪一个表示拟合优度,类似于chi-square,当只适用于因变量时的错误。
答案 0 :(得分:4)
Beta Covariance
是您拟合参数的covariance matrix。它可以被认为是描述相互连接的矩阵,你的两个参数是关于它们自己和彼此。
Residual Variance
我认为这是衡量拟合优度的指标,值越小,数据拟合得越好。
Inverse Condition
是condition number的倒数(1 / x)。条件数定义了拟合函数对输入变化的敏感程度。
scipy.odr
是一个更老的FORTRAN77包的包装器,称为ODRPACK。 ODRPACK的文档实际上可以在on the scipy website上找到。这可以帮助您理解您需要知道的内容,因为它包含参数的数学描述。