我写了下面这段代码。我遇到了严重的性能问题。特别是我循环5000万次的循环(z范围(总):)似乎非常慢。我可以修改它以提高效率吗? - 也许修改它如何存储r1,r2中最后10个值的总和?
import numpy as np
import math
import scipy.stats as sp
# Define sample size
sample=4999999
cutoff=int((sample+1)/100)
# Define days for x-day VaR
xdays=10
# Calculate the whole sample size and extended total sample size
size=sample*xdays+xdays-1
total=size+xdays
cutoff_o=int((size+1)/100)
# Sample values for kurtosis
#kurt=[0.0000001,1.0,2.0,3.0,4.0,5.0,6.0,10.0]
kurt=[6.0]
# Number of repetitions
rep=2
# Define correlation coefficient
rho=0.5
# Loop for different iterations
for x in range(rep):
uni=sp.uniform.rvs(size=total)
# Loop for different values of kurtosis
for y in kurt:
df=(6.0/y)+4.0
# Initialize arrays
t_corr=np.empty(total)
n_corr=np.empty(total)
t_corr_2=np.empty(total)
r1=np.empty(sample)
r2=np.empty(size)
r3=np.empty(sample)
r4=np.empty(size)
# Define t dist from uniform
t_dist=sp.t.ppf(uni,df)
n_dist=sp.norm.ppf(uni)
# Loop to generate autocorrelated distributions
for z in range(total):
if z==0:
t_corr[z]=t_dist[z]
n_corr[z]=n_dist[z]
t_corr_2[z]=sp.t.ppf(sp.norm.cdf(n_corr[z]),df)
else:
t_corr[z]=rho*t_dist[z-1] + math.sqrt((1-rho**2))*t_dist[z]
n_corr[z]=rho*n_dist[z-1] + math.sqrt((1-rho**2))*n_dist[z]
t_corr_2[z]=sp.t.ppf(sp.norm.cdf(n_corr[z]),df)
if z>xdays-1:
z_x=int(z/xdays)-1
if (z%xdays)==0 and z_x<sample:
r1[z_x]= sum(t_corr[z-10:z])
r3[z_x]= sum(t_corr_2[z-10:z])
r2[z-xdays]= sum(t_corr[z-10:z])
r4[z-xdays]= sum(t_corr_2[z-10:z])
print (np.partition(r1, cutoff-1)[cutoff-1], np.partition(r3, cutoff-1)[cutoff-1], np.partition(r2, cutoff_o-1)[cutoff_o-1], np.partition(r4, cutoff_o-1)[cutoff_o-1])
print ()
答案 0 :(得分:1)
一些建议:
首先,您可以从循环中删除if
语句。当程序员知道 z == 0
在第一个循环中等于零时,检查z
数百万次似乎没有必要。 if z>xdays-1
:
if z==0:
t_corr[z]=t_dist[z]
n_corr[z]=n_dist[z]
t_corr_2[z]=sp.t.ppf(sp.norm.cdf(n_corr[z]),df)
for z in range(1, xdays - 1):
t_corr[z]=rho*t_dist[z-1] + math.sqrt((1-rho**2))*t_dist[z]
n_corr[z]=rho*n_dist[z-1] + math.sqrt((1-rho**2))*n_dist[z]
t_corr_2[z]=sp.t.ppf(sp.norm.cdf(n_corr[z]),df)
for z in range(xdays - 1, total)
t_corr[z]=rho*t_dist[z-1] + math.sqrt((1-rho**2))*t_dist[z]
n_corr[z]=rho*n_dist[z-1] + math.sqrt((1-rho**2))*n_dist[z]
t_corr_2[z]=sp.t.ppf(sp.norm.cdf(n_corr[z]),df)
z_x=int(z/xdays)-1
if (z%xdays)==0 and z_x<sample:
r1[z_x]= sum(t_corr[z-10:z])
r3[z_x]= sum(t_corr_2[z-10:z])
r2[z-xdays]= sum(t_corr[z-10:z])
r4[z-xdays]= sum(t_corr_2[z-10:z])
请仔细检查一下;我把它扔掉了:))
廉价/黑客修复实际上可以提供一些严重的好处!您可以尝试使用Cython将python代码编译为二进制文件。我实际上用一个人为的但并非不同的例子对你进行了测试,我希望能为你提供足够的信息。假设我有以下python脚本:
import math
for j in range(1000):
for i in range(1000):
a = math.sqrt(i) * math.sqrt(j)
使用python3 fast.py
运行它在我的Ubuntu VM上实时持续.4s。运行以下内容:
$ cython3 --embed -o fast.c fast.py
$ gcc -I /usr/include/python3.4m/ -o fast fast.c -lpython3.4m
从我的python代码生成一个.c
文件,并自动为我编译二进制文件fast
。现在运行可执行文件给我的平均实时时间为.14秒 - 这是一个巨大的进步!
另一个问题可能是你的列表切片。请记住,切片表示法涉及每次创建一个新列表,这意味着您要用四个切片创建~200,000,000个新列表。现在我不确定这会更快,但你可以在不复制的情况下实现相同的行为,例如:
sum(t_corr[z-10:z])
可以替换为
sum(t_coor[i] for i in range(z, 10))
再次,修正这是你真正想要的;这只是一个概念片。
请告诉我这是否有帮助!