我想知道如何正确计算大熊猫的偏度和峰度。
熊猫提供了skew()
和kurtosis()
值的一些值,但它们似乎与scipy.stats
值有很大不同。信任熊猫或scipy.stats
中的哪一个?
这是我的代码:
import numpy as np
import scipy.stats as stats
import pandas as pd
np.random.seed(100)
x = np.random.normal(size=(20))
kurtosis_scipy = stats.kurtosis(x)
kurtosis_pandas = pd.DataFrame(x).kurtosis()[0]
print(kurtosis_scipy, kurtosis_pandas)
# -0.5270409758168872
# -0.31467107631025604
skew_scipy = stats.skew(x)
skew_pandas = pd.DataFrame(x).skew()[0]
print(skew_scipy, skew_pandas)
# -0.41070929017558555
# -0.44478877631598901
版本:
print(np.__version__, pd.__version__, scipy.__version__)
1.11.0 0.20.0 0.19.0
答案 0 :(得分:4)
bias=False
print(
stats.kurtosis(x, bias=False), pd.DataFrame(x).kurtosis()[0],
stats.skew(x, bias=False), pd.DataFrame(x).skew()[0],
sep='\n'
)
-0.31467107631025515
-0.31467107631025604
-0.4447887763159889
-0.444788776315989
答案 1 :(得分:1)
熊猫计算出峰度的UNBIASED估计量。 查看维基百科的公式:https://www.wikiwand.com/en/Kurtosis
import numpy as np
import pandas as pd
import scipy
x = np.array([0, 3, 4, 1, 2, 3, 0, 2, 1, 3, 2, 0,
2, 2, 3, 2, 5, 2, 3, 999])
k2 = x.var(ddof=1) # default numpy is biased, ddof = 0
sum_term = ((x-xbar)**4).sum()
fac1 = (n+1) * n / (n-1) / (n-2) / (n-3)
second = - 3 * (n-1) * (n-1) / (n-2) / (n-3)
first = fac1 * sum_term / k2 / k2
G2 = first + second
G2 # 19.998428728659768
scipy.stats.kurtosis(x,bias=False) # 19.998428728659757
pd.DataFrame(x).kurtosis() # 19.998429
类似地,您还可以计算偏度。