我正在尝试获得适合beta版本的正确方法。这不是一个现实世界的问题,我只是测试几种不同方法的效果,而这样做有些让我感到困惑。
这是我正在研究的python代码,其中我测试了3种不同的方法: 1>:使用时刻拟合(样本均值和方差)。 2>:通过最小化负对数似然来拟合(通过使用scipy.optimize.fmin())。 3>:只需调用scipy.stats.beta.fit()
from scipy.optimize import fmin
from scipy.stats import beta
from scipy.special import gamma as gammaf
import matplotlib.pyplot as plt
import numpy
def betaNLL(param,*args):
'''Negative log likelihood function for beta
<param>: list for parameters to be fitted.
<args>: 1-element array containing the sample data.
Return <nll>: negative log-likelihood to be minimized.
'''
a,b=param
data=args[0]
pdf=beta.pdf(data,a,b,loc=0,scale=1)
lg=numpy.log(pdf)
#-----Replace -inf with 0s------
lg=numpy.where(lg==-numpy.inf,0,lg)
nll=-1*numpy.sum(lg)
return nll
#-------------------Sample data-------------------
data=beta.rvs(5,2,loc=0,scale=1,size=500)
#----------------Normalize to [0,1]----------------
#data=(data-numpy.min(data))/(numpy.max(data)-numpy.min(data))
#----------------Fit using moments----------------
mean=numpy.mean(data)
var=numpy.var(data,ddof=1)
alpha1=mean**2*(1-mean)/var-mean
beta1=alpha1*(1-mean)/mean
#------------------Fit using mle------------------
result=fmin(betaNLL,[1,1],args=(data,))
alpha2,beta2=result
#----------------Fit using beta.fit----------------
alpha3,beta3,xx,yy=beta.fit(data)
print '\n# alpha,beta from moments:',alpha1,beta1
print '# alpha,beta from mle:',alpha2,beta2
print '# alpha,beta from beta.fit:',alpha3,beta3
#-----------------------Plot-----------------------
plt.hist(data,bins=30,normed=True)
fitted=lambda x,a,b:gammaf(a+b)/gammaf(a)/gammaf(b)*x**(a-1)*(1-x)**(b-1) #pdf of beta
xx=numpy.linspace(0,max(data),len(data))
plt.plot(xx,fitted(xx,alpha1,beta1),'g')
plt.plot(xx,fitted(xx,alpha2,beta2),'b')
plt.plot(xx,fitted(xx,alpha3,beta3),'r')
plt.show()
我遇到的问题是标准化过程(z=(x-a)/(b-a)
),其中a
和b
分别是样本的最小值和最大值。
当我不进行标准化时,一切正常,不同的拟合方法之间存在细微差别,相当不错。
但是当我进行归一化时,这是我得到的结果图。
只有当时方法(绿线)看起来很好。
无论用什么参数生成随机数,scipy.stats.beta.fit()方法(红线)总是统一的。
MLE(蓝线)失败。
因此,规范化似乎正在创造这些问题。但我认为在Beta发布版中包含x=0
和x=1
是合法的。如果给出一个真实世界的问题,是不是将样本观测值标准化以使其在[0,1]之间的第一步?在这种情况下,我应该如何拟合曲线?
答案 0 :(得分:3)
问题在于beta.pdf()
有时会为0
和inf
返回0
和 1
。例如:
>>> from scipy.stats import beta
>>> beta.pdf(1,1.05,0.95)
/usr/lib64/python2.6/site-packages/scipy/stats/distributions.py:1165: RuntimeWarning: divide by zero encountered in power
Px = (1.0-x)**(b-1.0) * x**(a-1.0)
inf
>>> beta.pdf(0,1.05,0.95)
0.0
您希望通过规范化流程在0
和1
处获得一个数据样本。虽然您对pdf为0
的值“更正”,但您不会更正返回inf
的值。为了解决这个问题,你可以删除所有不是有限的值:
def betaNLL(param,*args):
"""
Negative log likelihood function for beta
<param>: list for parameters to be fitted.
<args>: 1-element array containing the sample data.
Return <nll>: negative log-likelihood to be minimized.
"""
a, b = param
data = args[0]
pdf = beta.pdf(data,a,b,loc=0,scale=1)
lg = np.log(pdf)
mask = np.isfinite(lg)
nll = -lg[mask].sum()
return nll
实际上你不应该像这样正常化,因为你实际上是从拟合中抛出两个数据点。
答案 1 :(得分:3)
如果没有beta.fit
的文档字符串,找到它会有点棘手,但是如果您知道要强制beta.fit
的上限和下限,则可以使用kwargs {{1} }和floc
。
我只使用fscale
方法运行代码,但有和没有floc和fscale kwargs。此外,我使用参数作为整数和浮动检查它,以确保不会影响您的答案。它没有(在这个测试中。我不能说它是否永远不会。)
beta.fit
总之,似乎这不会改变您的数据(通过规范化)或丢弃数据。我只是认为应该注意使用它时应该小心。在您的情况下,您知道限制为0和1,因为您从定义的分布中得到的数据介于0和1之间。在其他情况下,限制可能是已知的,但如果它们未知,>>> from scipy.stats import beta
>>> import numpy
>>> def betaNLL(param,*args):
'''Negative log likelihood function for beta
<param>: list for parameters to be fitted.
<args>: 1-element array containing the sample data.
Return <nll>: negative log-likelihood to be minimized.
'''
a,b=param
data=args[0]
pdf=beta.pdf(data,a,b,loc=0,scale=1)
lg=numpy.log(pdf)
#-----Replace -inf with 0s------
lg=numpy.where(lg==-numpy.inf,0,lg)
nll=-1*numpy.sum(lg)
return nll
>>> data=beta.rvs(5,2,loc=0,scale=1,size=500)
>>> beta.fit(data)
(5.696963536654355, 2.0005252702837009, -0.060443307228404922, 1.0580278414086459)
>>> beta.fit(data,floc=0,fscale=1)
(5.0952451826831462, 1.9546341057106007, 0, 1)
>>> beta.fit(data,floc=0.,fscale=1.)
(5.0952451826831462, 1.9546341057106007, 0.0, 1.0)
将提供他们。在这种情况下,未指定0和1的限制,beta.fit
将其计算为beta.fit
和loc=-0.06
。
答案 2 :(得分:0)
我使用了doi:10.1080 / 00949657808810232中提出的方法来设置beta参数:
from scipy.special import psi
from scipy.special import polygamma
from scipy.optimize import root_scalar
from numpy.random import beta
import numpy as np
def ipsi(y):
if y >= -2.22:
x = np.exp(y) + 0.5
else:
x = - 1/ (y + psi(1))
for i in range(5):
x = x - (psi(x) - y)/(polygamma(1,x))
return x
#%%
# q satisface
# psi(q) - psi(ipsi(lng1 - lng2 + psi(q)) + q) -lng2 = 0
# O sea, busco raíz de
# f(q) = psi(q) - psi(ipsi(lng1 - lng2 + psi(q)) + q) -lng2
# luego:
# p = ipsi(lng1 - lng2 + psi(q))
def f(q,lng1,lng2):
return psi(q) - psi(ipsi(lng1 - lng2 + psi(q)) + q) -lng2
#%%
def ml_beta_pq(sample):
lng1 = np.log(sample).mean()
lng2 = np.log(1-sample).mean()
def g(q):
return f(q,lng1,lng2)
q=root_scalar(g,x0=1,x1=1.1).root
p = ipsi(lng1 - lng2 + psi(q))
return p, q
#%%
p = 2
q = 5
n = 1500
sample = beta(p,q,n)
ps,qs = ml_beta_pq(sample) #s de sombrero
print(f'Estimación de parámetros de una beta({p}, {q}) \na partir de una muestra de tamaño n = {n}')
print(f'\nn ={n:5d} | p | q')
print(f'---------+-------+------')
print(f'original | {p:2.3f} | {q:2.3f}')
print(f'estimado | {ps:2.3f} | {qs:2.3f}')