我有一系列双打,大约200,000行乘100列,我正在寻找一种快速算法来查找包含与给定模式最相似的序列的行(模式可以是10到100个元素之间的任何位置) )。我正在使用python,所以蛮力方法(下面的代码:遍历每一行并开始列索引,并计算每个点的欧几里德距离)大约需要三分钟。
numpy.correlate函数可以更快地解决这个问题(在不到20秒的时间内在同一个数据集上运行)。然而,它只是计算整个行上的模式的滑点产品,这意味着为了比较相似性,我必须首先将结果标准化。规范化互相关需要计算每个数据切片的标准偏差,这就会立即抵消首先使用numpy.correlate的速度提升。
是否可以在python中快速计算规范化的互相关?或者我是否必须在C?中编写蛮力方法?
def norm_corr(x,y,mode='valid'):
ya=np.array(y)
slices=[x[pos:pos+len(y)] for pos in range(len(x)-len(y)+1)]
return [np.linalg.norm(np.array(z)-ya) for z in slices]
similarities=[norm_corr(arr,pointarray) for arr in arraytable]
答案 0 :(得分:1)
如果您的数据位于2D Numpy数组中,您可以从中获取2D切片(按len(模式)列排列200000行)并一次计算所有行的范数。然后在for循环中向右滑动窗口。
ROWS = 200000
COLS = 100
PATLEN = 20
#random data for example's sake
a = np.random.rand(ROWS,COLS)
pattern = np.random.rand(PATLEN)
tmp = np.empty([ROWS, COLS-PATLEN])
for i in xrange(COLS-PATLEN):
window = a[:,i:i+PATLEN]
tmp[:,i] = np.sum((window-pattern)**2, axis=1)
result = np.sqrt(tmp)