香农熵优化WaveletPacket平铺的Python / PyWavelet实现

时间:2019-04-30 14:39:22

标签: python entropy wavelet pywavelets

我需要为小波包树运行香农(或任何此类度量)熵最小化,但是我在解决算法方面遇到了问题。有时,这被称为优化频率空间中的图块。 我可以按照比例尺解决问题,但找不到解决与后续比例尺重叠冲突的方法。应该只用第一个已解析图层的结果来填充最终比例图中的间隙吗?

我尝试使用PyWavelet的pywt.WaveletPacket,并在google上搜索解决了此问题的人,但我似乎找不到基于Python的答案。我得到的最接近的是Wavelet Toolbox中Matlab的besttree函数,但是我没有该toobox的许可证,所以我不能简单地使用MCC-it并在python中运行。

import pywt
wave='db4'
wp=pywt.WaveletPacket(data,wave)
levels=pywt.dwt_max_level(len(data),pywt.Wavelet(wave))+1

那时候,我不知道沿着节点继续并追溯到其父节点,还是沿着给定级别进行追踪是否更好。

我一直在使用Addison的“插图小波变换手册”作为技术参考。我正在尝试复制第170页上的图3.41中所示的过程,或者与以下链接类似: https://www.researchgate.net/figure/TF-tiling-comparison-between-a-a-DWT-and-b-a-sample-WP-decomposition_fig1_4128902

1 个答案:

答案 0 :(得分:0)

这似乎可行,但是对于大型数据集来说相当慢。
另外,我不确定使用自然顺序向上构建是否正确,但似乎确实与scipy.signal.spectrogram(即STFFT)一致。

此外,尝试在修剪后在命令中指定'freq'后返回叶节点会重新填充树。

下面的函数旨在在时频空间中返回类似于scipy.signal.spectrogram(即类似图像的数组)的比例图。

“频率”用于设置图像的y轴范围。

平铺在某种程度上是簿记性的,可以查看相对于STFFT使用了多少个数据点

def Shannon(data):
    if len(data)==1:
        S=data
    else:
        E=data**2/len(data)
        P=E/sum(E)
        S=-sum(P*np.log(P))
    return S
def wpscalogram(Data,rate=5e4,thresh=1.,wave='db4',**_):
    wp=pywt.WaveletPacket(Data,wave)
    wp.get_leaf_nodes(decompose=True)
    levels=pywt.dwt_max_level(len(Data),pywt.Wavelet(wave))

    #DO NOT USE "decompose=True" or "get_level(max_level)" FROM THIS POINT
    for level in range(levels,1,-1):
        print level
        nodes=wp.get_level(level,order='natural',decompose=False)
        paths=[n.path for n in nodes]
        n=len(paths)
        for _i in range(0,n,2):
            Cval=np.hstack([wp[paths[_i]].data,wp[paths[_i+1]].data])
            Pval=wp[wp[paths[_i]].parent.path].data

            if Shannon(Cval)>Shannon(Pval)*thresh:
                wp.__delitem__(paths[_i])
                wp.__delitem__(paths[_i+1])
            else:
                wp[wp[paths[_i]].parent.path].data=min(Shannon(Cval),Shannon(Pval))
    leaves=wp.get_leaf_nodes()
    print [len(leaves[i].path) for i in range(len( leaves))]            
    #ONE CAN NOW DECOMPOSE TREE

    tiles=[len(l.data) for l in leaves]
    col=int(np.max(tiles))
    tiles=sum(tiles)
    freq=np.array([0,0])
    for j,l in enumerate(leaves):
        y=l.data
        level=levels-l.level+1
        if len(y)<col:
            x=col*np.arange(1,len(y)+1).astype(float)/(len(y)+1)
            xi=np.linspace(0,col,col)
            yi=griddata(points=x,values=y,xi=xi,method='nearest')
        else:
            yi=y
        if j==0:
            freq[0]=rate*pywt.scale2frequency(wave,level)
            freq[1]=np.copy(freq[0])
            im=np.matlib.repmat(yi,level,1)
        else:
            im=np.vstack([np.matlib.repmat(yi,level,1),im])
            freq[1]+=rate*pywt.scale2frequency(wave,level)
    print freq
    im[im==0]=np.nan
    return im,freq,tiles