我有一长串数据( n 实体)。此数组中的每个对象都有一些值(例如,对象的 m 值)。我有一个循环:
myType* A;
// reading the array of objects
std::vector<anotherType> targetArray;
int i, j, k = 0;
for (i = 0; i < n; i++)
for (j = 0; j < m; j++)
{
if (check((A[i].fields[j]))
{
// creating and adding the object to targetArray
targetArray[k] = someGenerator(A[i].fields[j]);
k++;
}
}
在某些情况下,我有 n * m 有效对象,在某些情况下( n * m )/ 10或更少
问题是如何为targetArray
分配内存?
targetArray.reserve(n*m);
// Do work
targetArray.shrink_to_fit();
计算元素而不生成对象,然后根据需要分配尽可能多的内存,再循环一次。
在每次创建新对象的迭代中调整数组大小。
我在每个方法中都看到了一个巨大的战术错误。是另一种方法吗?
答案 0 :(得分:5)
您在这里所做的事情称为过早优化。默认情况下,std::vector
会因内存不足而存储新对象而指数增加其内存占用量。例如,第一个push_back
将分配2个元素。第三个push_back
会使大小增加一倍等。只需坚持使用push_back
并让代码正常工作。
只有当上述方法证明自己是设计中的瓶颈时,才应该开始考虑内存分配优化。如果发生这种情况,我认为最好的办法是为一些有效的对象提供一个很好的近似值,然后在向量上调用reserve()
。像你的第一个方法。只需确保缩小以适应实现是正确的,因为矢量不喜欢缩小。您必须使用swap
。
每一步调整数组大小都没有用,std::vector
除非你努力,否则不会真正做到这一点。
在对象列表中执行额外的循环可能有所帮助,但也可能会因为您可能轻易浪费CPU周期,膨胀CPU缓存等而受到伤害。如果有疑问 - 请对其进行分析。
答案 1 :(得分:4)
典型的方法是使用targetArray.push_back()。这会在需要时重新分配内存,并避免两次通过您的数据。它有一个重新分配内存的系统,使其非常高效,随着向量变大,重新分配的次数减少了。
但是,如果你的check()函数非常快,你可以通过两次数据来确定性能,确定你需要多少内存,并使你的矢量开始正确。如果分析确定它确实是必要的话,我只会这样做。