我正在尝试计算维度 169647 的两个稀疏向量之间的余弦相似度。作为输入,这两个向量表示为<index, value>
形式的字符串。只有向量的非零元素被赋予索引。
x = "1:0.1 43:0.4 100:0.43 10000:0.9"
y = "200:0.5 500:0.34 501:0.34"
首先,我们使用函数vectors<float>.
将x和y中的每一个转换为两个splitVector
。然后我们使用函数cosine_similarity
计算距离。没关系split
功能。我正在使用它,以防您希望运行代码。
#include <iostream>
#include <string>
#include <vector>
#include <algorithm>
using namespace std;
void split(const string& s, char c,vector<string>& v) {
string::size_type i = 0;
string::size_type j = s.find(c);
while (j != string::npos) {
v.push_back(s.substr(i, j-i));
i = ++j;
j = s.find(c, j);
if (j == string::npos)
v.push_back(s.substr(i, s.length()));
}
}
float cosine_similarity(const std::vector<float> & A,const std::vector<float> & B)
{
float dot = 0.0, denom_a = 0.0, denom_b = 0.0 ;
for(unsigned int i = 0; i < A.size(); ++i)
{
dot += A[i] * B[i] ;
denom_a += A[i] * A[i] ;
denom_b += B[i] * B[i] ;
}
return dot / (sqrt(denom_a) * sqrt(denom_b)) ;
}
void splitVector(const vector<string> & v, vector<float> & values)
{
vector<string> tmpv;
string parsed;
for(unsigned int i = 0; i < v.size(); i++)
{
split(v[i], ':', tmpv);
int idx = atoi(tmpv[0].c_str());
float val = atof(tmpv[1].c_str());
tmpv.clear();
values[idx] = val;
}//end for;
}//end function
int main()
{
//INPUT VECTORS.
vector<string> x {"1:0.1","43:0.4","50:0.43","90:0.9"};
vector<string> y {"20:0.5","40:0.34","50:0.34"};
//STEP 1: Initialize vectors
int dimension = 169647;
vector<float> X;
X.resize(dimension, 0.0);
vector<float> Y;
Y.resize(dimension, 0.0);
//STEP 2: CREATE FLOAT VECTORS
splitVector(x, X);
splitVector(y, Y);
//STEP 3: COMPUTE COSINE SIMILARITY
cout << cosine_similarity(X,Y) << endl;
}
初始化和填充vector<float>
是个问题。这真的花了很多执行时间。我在考虑在c ++中使用std::map<int,float>
结构。其中X和Y将表示为:
std::map<int,float> x_m{ make_pair(1,0.1), make_pair(43,0.4), make_pair(50,0.43), make_pair(90,0.9)};
std::map<int,float> y_m{ make_pair(20,0.5), make_pair(40,0.34), make_pair(50,0.34)};
为此,我使用了以下功能:
float cosine_similarity(const std::map<int,float> & A,const std::map<int,float> & B)
{
float dot = 0.0, denom_a = 0.0, denom_b = 0.0 ;
for(auto &a:A)
{
denom_a += a.second * a.second ;
}
for(auto &b:B)
{
denom_b += b.second * b.second ;
}
for(auto &a:A)
{
if(B.find(a.first) != B.end())
{
dot += a.second * B.find(a.first)->second ;
}
}
return dot / (sqrt(denom_a) * sqrt(denom_b)) ;
}
答案 0 :(得分:2)
稀疏向量的常见表示是一个简单的索引数组和一个值或有时是一对索引和值的数组,因为通常你需要与值一起访问索引(除非你不这样做)比如矢量长度/标准化或类似的)。建议使用其他两种形式:使用std::map
和std::unordered_map
。
请在最后找到结论。
我为这四个表示实现了向量运算长度和内积(点积)。此外,我在OP的问题中以非常直接的方式实现了内积,并在向量实现对上改进了余弦距离计算。
我已经对这些实施进行了基准测试。您可以从我link中查看我的代码,我从中获取了以下数字(尽管这些比率与我自己机器上的运行非常巧妙地匹配,只有更高的RunCount
才能更均匀地传播随机输入向量)。结果如下:
Explanation of the output of the benchmark: pairs: implementation using (sorted) std::vector of pairs map'd: implementation using std::map hashm: implementation using std::unordered_map class: implementation using two separate std::vector for indices and values respectively specl dot (naive map): dot product using map.find instead of proper iteration specl cos (optimised): cosine distance iterating only once over both vectors Columns are the percentage of non-zeros in the random sparse vector (on average). Values are in terms of the vector of pairs implementation (1: equal runtime, 2: took twice as long, 0.5: took half as long). inner product (dot) 5% 10% 15% 25% map'd 3.3 3.5 3.7 4.0 hashm 3.6 4.0 4.8 5.2 class 1.1 1.1 1.1 1.1 special[1] 8.3 9.8 10.7 10.8 norm squared (len2) 5% 10% 15% 25% map'd 6.9 7.6 8.3 10.2 hashm 2.3 3.6 4.1 4.8 class 0.98 0.95 0.93 0.75 cosine distance (cos) 5% 10% 15% 25% map'd 4.0 4.3 4.6 5.0 hashm 3.2 3.9 4.6 5.0 class 1.1 1.1 1.1 1.1 special[2] 0.92 0.95 0.93 0.94
除了special[2]
- 情况我使用了以下余弦距离函数:
template<class Vector>
inline float CosineDistance(const Vector& lhs, const Vector& rhs) {
return Dot(lhs, rhs) / std::sqrt(LenSqr(lhs) * LenSqr(rhs));
}
配对容器
以下是已排序Dot
和vector<pair<size_t,float>>
map<size_t,float>
的实施情况:
template<class PairContainerSorted>
inline float DotPairsSorted(const PairContainerSorted& lhs, const PairContainerSorted& rhs) {
float dot = 0;
for(auto pLhs = lhs.begin(), pRhs = rhs.begin(), endLhs = lhs.end(), endRhs = rhs.end(); pRhs != endRhs;) {
for(; pLhs != endLhs && pLhs->first < pRhs->first; ++pLhs);
if(pLhs == endLhs)
break;
for(; pRhs != endRhs && pRhs->first < pLhs->first; ++pRhs);
if(pRhs == endRhs)
break;
if(pLhs->first == pRhs->first) {
dot += pLhs->second * pRhs->second;
++pLhs;
++pRhs;
}
}
return dot;
}
这是Dot
对无序地图和special[1]
(相当于OP&#39; s实施)的实施:
template<class PairMap>
inline float DotPairsMapped(const PairMap& lhs, const PairMap& rhs) {
float dot = 0;
for(auto& pair : lhs) {
auto pos = rhs.find(pair.first);
if(pos != rhs.end())
dot += pair.second * pos->second;
}
return dot;
}
LenSqr
的实施:
template<class PairContainer>
inline float LenSqrPairs(const PairContainer& vec) {
float dot = 0;
for(auto& pair : vec)
dot += pair.second * pair.second;
return dot;
}
一对矢量
请注意,我将这对矢量打包到结构(或class
)SparseVector
中(查看完整代码以获取详细信息):
inline float Dot(const SparseVector& lhs, const SparseVector& rhs) {
float dot = 0;
if(!lhs.idx.empty() && !rhs.idx.empty()) {
const size_t *itIdxLhs = &lhs.idx[0], *endIdxLhs = &lhs.idx[0] + lhs.idx.size();
const float *itValLhs = &lhs.val[0], *endValLhs = &lhs.val[0] + lhs.val.size();
const size_t *itIdxRhs = &rhs.idx[0], *endIdxRhs = &rhs.idx[0] + rhs.idx.size();
const float *itValRhs = &rhs.val[0], *endValRhs = &rhs.val[0] + rhs.val.size();
while(itIdxRhs != endIdxRhs) {
for(; itIdxLhs < endIdxLhs && *itIdxLhs < *itIdxRhs; ++itIdxLhs, ++itValLhs);
if(itIdxLhs == endIdxLhs)
break;
for(; itIdxRhs < endIdxRhs && *itIdxRhs < *itIdxLhs; ++itIdxRhs, ++itValRhs);
if(itIdxRhs == endIdxRhs)
break;
if(*itIdxLhs == *itIdxRhs) {
dot += (*itValLhs) * (*itValRhs);
++itIdxLhs;
++itValLhs;
++itIdxRhs;
++itValRhs;
}
}
}
return dot;
}
inline float LenSqr(const SparseVector& vec) {
float dot = 0;
for(float v : vec.val)
dot += v * v;
return dot;
}
special[2]
只是计算两个向量的平方范数,同时在内积中迭代它们(查看完整代码以获取详细信息)。我已经添加了这个以证明一点:缓存命中很重要。如果我只是更有效地访问我的记忆,我可以用对矢量对击败对的向量的天真方法(如果你当然优化了其他路径,那也是如此)。
请注意,所有经过测试的实现(具有special[1]
行为的O(k*logk)
除外)都表现出O(k)
的理论运行时行为,其中k
是非零的数量稀疏向量:由于Dot
的实现是相同的,因此查看地图和向量是微不足道的,无序地图通过在{{1}中实现find
来实现这一点摊销。
为什么地图是稀疏矢量的错误工具?对于O(1)
,答案是迭代树结构的开销,std::map
std::unordered_map
的随机存储器访问模式,这两者都会导致缓存未命中时的巨大开销。
揭开find
对std::unordered_map
的理论效益的神秘面纱,检查std::map
的结果。这是special[1]
正在击败的实现,不是因为它更适合于问题,而是因为使用std::unordered_map
的实现是次优的。
答案 1 :(得分:1)
假设 N = 169647 ,实际上两者的尺寸分别为 m , n 。
关于你的问题:
原始复杂性为Θ(N 2 )。
您提出的解决方案的复杂性是 O((m + n)log(max(m,n)),这可能会小得多;使用std::unordered_map
相反,您可以将其减少到预期的 O(m + n)。
听起来不错,但是,一如既往 - YMMV。您应该在整个应用程序的上下文中分析这个操作(以查看它是否是一个问题),以及此操作中的步骤。