高维空间的近似最近邻居(A1NN)

时间:2016-09-26 21:26:36

标签: algorithm vector similarity locality-sensitive-hash

我读了this关于找到三维点最近邻居的问题。 Octree是这种情况的解决方案。

kd-Tree是小空间的解决方案(通常小于50维)。

对于更高维度(数百维和数百万点的向量),LSH是解决AKNN(Aproxximate K-NN)问题的流行解决方案,如this question所述。

然而,LSH在K-NN解决方案中很受欢迎,其中K> 1。例如,LSH已经successfully used用于基于内容的图像检索(CBIR)应用程序,其中每个图像通过数百个维度的向量来表示,并且数据集是数百万(或数十亿)的图像。在这种情况下,K是顶部K最相似图像的数量w.r.t.查询图片。

但是如果我们对高维空间中最近似的相似邻居(即A1-NN)感兴趣呢? LSH仍然是赢家,还是提出了临时解决方案?< / p>

1 个答案:

答案 0 :(得分:1)

您可以查看http://papers.nips.cc/paper/2666-an-investigation-of-practical-approximate-nearest-neighbor-algorithms.pdfhttp://research.microsoft.com/en-us/um/people/jingdw/pubs%5CTPAMI-TPTree.pdf。两者都有图表和图表显示LSH的性能与基于树的方法的性能,对于包括k = 1的不同k值,它们也仅产生近似答案。微软的论文声称&#34;已经在[34]中显示随机化的KD树可以 优于LSH算法大约一个数量级&#34;。表2另一篇论文的P 7似乎显示了LSH的加速比,这对于不同的k值是合理一致的。

请注意,这不是LSH与kd-trees。这是LSH与各种巧妙调整的近似搜索树结构,您通常只搜索树中最有希望的部分,而不是树中可能包含最近点的所有部分,并搜索许多不同的树为了获得最佳性能,调整各种参数以获得最快的性能,以获得找到好点的合理概率。

相关问题