很明显,通用HashSet<T>
类的搜索性能高于通用List<T>
类。只需将基于散列的密钥与List<T>
类中的线性方法进行比较。
但是,计算散列键本身可能需要一些CPU周期,因此对于少量项目,线性搜索可以是HashSet<T>
的真正替代。
我的问题:收支平衡在哪里?
为了简化场景(并且公平),我们假设List<T>
类使用元素的Equals()
方法来识别项目。
答案 0 :(得分:737)
很多人都说,一旦达到速度实际上是HashSet<T>
总是会打List<T>
的问题,那取决于你在做什么。
假设您有一个List<T>
,其中平均只有5个项目。在很多周期中,如果每个周期添加或删除单个项目,最好使用List<T>
。
我在我的机器上对此进行了测试,而且,要从List<T>
获得优势,它必须非常小。对于短字符串列表,对于大小为20之后的对象,优势在大小5之后消失。
1 item LIST strs time: 617ms
1 item HASHSET strs time: 1332ms
2 item LIST strs time: 781ms
2 item HASHSET strs time: 1354ms
3 item LIST strs time: 950ms
3 item HASHSET strs time: 1405ms
4 item LIST strs time: 1126ms
4 item HASHSET strs time: 1441ms
5 item LIST strs time: 1370ms
5 item HASHSET strs time: 1452ms
6 item LIST strs time: 1481ms
6 item HASHSET strs time: 1418ms
7 item LIST strs time: 1581ms
7 item HASHSET strs time: 1464ms
8 item LIST strs time: 1726ms
8 item HASHSET strs time: 1398ms
9 item LIST strs time: 1901ms
9 item HASHSET strs time: 1433ms
1 item LIST objs time: 614ms
1 item HASHSET objs time: 1993ms
4 item LIST objs time: 837ms
4 item HASHSET objs time: 1914ms
7 item LIST objs time: 1070ms
7 item HASHSET objs time: 1900ms
10 item LIST objs time: 1267ms
10 item HASHSET objs time: 1904ms
13 item LIST objs time: 1494ms
13 item HASHSET objs time: 1893ms
16 item LIST objs time: 1695ms
16 item HASHSET objs time: 1879ms
19 item LIST objs time: 1902ms
19 item HASHSET objs time: 1950ms
22 item LIST objs time: 2136ms
22 item HASHSET objs time: 1893ms
25 item LIST objs time: 2357ms
25 item HASHSET objs time: 1826ms
28 item LIST objs time: 2555ms
28 item HASHSET objs time: 1865ms
31 item LIST objs time: 2755ms
31 item HASHSET objs time: 1963ms
34 item LIST objs time: 3025ms
34 item HASHSET objs time: 1874ms
37 item LIST objs time: 3195ms
37 item HASHSET objs time: 1958ms
40 item LIST objs time: 3401ms
40 item HASHSET objs time: 1855ms
43 item LIST objs time: 3618ms
43 item HASHSET objs time: 1869ms
46 item LIST objs time: 3883ms
46 item HASHSET objs time: 2046ms
49 item LIST objs time: 4218ms
49 item HASHSET objs time: 1873ms
以下是以图表形式显示的数据:
以下是代码:
static void Main(string[] args)
{
int times = 10000000;
for (int listSize = 1; listSize < 10; listSize++)
{
List<string> list = new List<string>();
HashSet<string> hashset = new HashSet<string>();
for (int i = 0; i < listSize; i++)
{
list.Add("string" + i.ToString());
hashset.Add("string" + i.ToString());
}
Stopwatch timer = new Stopwatch();
timer.Start();
for (int i = 0; i < times; i++)
{
list.Remove("string0");
list.Add("string0");
}
timer.Stop();
Console.WriteLine(listSize.ToString() + " item LIST strs time: " + timer.ElapsedMilliseconds.ToString() + "ms");
timer = new Stopwatch();
timer.Start();
for (int i = 0; i < times; i++)
{
hashset.Remove("string0");
hashset.Add("string0");
}
timer.Stop();
Console.WriteLine(listSize.ToString() + " item HASHSET strs time: " + timer.ElapsedMilliseconds.ToString() + "ms");
Console.WriteLine();
}
for (int listSize = 1; listSize < 50; listSize+=3)
{
List<object> list = new List<object>();
HashSet<object> hashset = new HashSet<object>();
for (int i = 0; i < listSize; i++)
{
list.Add(new object());
hashset.Add(new object());
}
object objToAddRem = list[0];
Stopwatch timer = new Stopwatch();
timer.Start();
for (int i = 0; i < times; i++)
{
list.Remove(objToAddRem);
list.Add(objToAddRem);
}
timer.Stop();
Console.WriteLine(listSize.ToString() + " item LIST objs time: " + timer.ElapsedMilliseconds.ToString() + "ms");
timer = new Stopwatch();
timer.Start();
for (int i = 0; i < times; i++)
{
hashset.Remove(objToAddRem);
hashset.Add(objToAddRem);
}
timer.Stop();
Console.WriteLine(listSize.ToString() + " item HASHSET objs time: " + timer.ElapsedMilliseconds.ToString() + "ms");
Console.WriteLine();
}
Console.ReadLine();
}
答案 1 :(得分:67)
你看错了。是的,List的线性搜索将击败HashSet以获得少量项目。但是性能差异通常对于小的集合无关紧要。这通常是您需要担心的大型收藏品,而这正是您think in terms of Big-O的所在。但是,如果你已经测量了HashSet性能的真正瓶颈,那么你可以尝试创建一个混合List / HashSet,但是你可以通过进行大量的经验性能测试来做到这一点 - 而不是在SO上提问。
答案 2 :(得分:51)
比较表现不同的 performance 的两个结构基本上没有意义。使用传达意图的结构。即使你说你的List<T>
不会有重复项并且迭代顺序无关紧要使其与HashSet<T>
相当,但使用List<T>
仍然是一个不好的选择,因为它的相对较少的错误宽容。
那就是说,我会检查性能的其他方面,
+------------+--------+-------------+-----------+----------+----------+-----------+
| Collection | Random | Containment | Insertion | Addition | Removal | Memory |
| | access | | | | | |
+------------+--------+-------------+-----------+----------+----------+-----------+
| List<T> | O(1) | O(n) | O(n) | O(1)* | O(n) | Lesser |
| HashSet<T> | O(n) | O(1) | n/a | O(1) | O(1) | Greater** |
+------------+--------+-------------+-----------+----------+----------+-----------+
* Even though addition is O(1) in both cases, it will be relatively slower in HashSet<T> since it involves cost of precomputing hash code before storing it.
** The superior scalability of HashSet<T> has a memory cost. Every entry is stored as a new object along with its hash code.
This article
might give you an idea.
答案 3 :(得分:49)
是否使用HashSet&lt;&gt;或列表&lt;&gt;归结为您需要如何访问您的收藏。如果您需要保证物品的顺序,请使用列表。如果不这样做,请使用HashSet。让微软担心其散列算法和对象的实现。
HashSet将访问项而不必枚举集合(O(1)或其附近的复杂性),并且因为List保证顺序,与HashSet不同,必须枚举一些项(O的复杂度)( n))的
答案 4 :(得分:23)
我以为我会为不同的场景编写一些基准来说明以前的答案:
对于每种情况,查找出现的值:
在每个场景之前,我生成随机大小的随机字符串列表,然后将每个列表提供给一个哈希集。每个场景运行10,000次,基本上是:
(测试伪代码)
stopwatch.start
for X times
exists = list.Contains(lookup);
stopwatch.stop
stopwatch.start
for X times
exists = hashset.Contains(lookup);
stopwatch.stop
在Windows 7上测试,12GB Ram,64位,Xeon 2.8GHz
---------- Testing few small strings ------------
Sample items: (16 total)
vgnwaloqf diwfpxbv tdcdc grfch icsjwk
...
Benchmarks:
1: hashset: late -- 100.00 % -- [Elapsed: 0.0018398 sec]
2: hashset: middle -- 104.19 % -- [Elapsed: 0.0019169 sec]
3: hashset: end -- 108.21 % -- [Elapsed: 0.0019908 sec]
4: list: early -- 144.62 % -- [Elapsed: 0.0026607 sec]
5: hashset: start -- 174.32 % -- [Elapsed: 0.0032071 sec]
6: list: middle -- 187.72 % -- [Elapsed: 0.0034536 sec]
7: list: late -- 192.66 % -- [Elapsed: 0.0035446 sec]
8: list: end -- 215.42 % -- [Elapsed: 0.0039633 sec]
9: hashset: early -- 217.95 % -- [Elapsed: 0.0040098 sec]
10: list: start -- 576.55 % -- [Elapsed: 0.0106073 sec]
---------- Testing many small strings ------------
Sample items: (10346 total)
dmnowa yshtrxorj vthjk okrxegip vwpoltck
...
Benchmarks:
1: hashset: end -- 100.00 % -- [Elapsed: 0.0017443 sec]
2: hashset: late -- 102.91 % -- [Elapsed: 0.0017951 sec]
3: hashset: middle -- 106.23 % -- [Elapsed: 0.0018529 sec]
4: list: early -- 107.49 % -- [Elapsed: 0.0018749 sec]
5: list: start -- 126.23 % -- [Elapsed: 0.0022018 sec]
6: hashset: early -- 134.11 % -- [Elapsed: 0.0023393 sec]
7: hashset: start -- 372.09 % -- [Elapsed: 0.0064903 sec]
8: list: middle -- 48,593.79 % -- [Elapsed: 0.8476214 sec]
9: list: end -- 99,020.73 % -- [Elapsed: 1.7272186 sec]
10: list: late -- 99,089.36 % -- [Elapsed: 1.7284155 sec]
---------- Testing few long strings ------------
Sample items: (19 total)
hidfymjyjtffcjmlcaoivbylakmqgoiowbgxpyhnrreodxyleehkhsofjqenyrrtlphbcnvdrbqdvji...
...
Benchmarks:
1: list: early -- 100.00 % -- [Elapsed: 0.0018266 sec]
2: list: start -- 115.76 % -- [Elapsed: 0.0021144 sec]
3: list: middle -- 143.44 % -- [Elapsed: 0.0026201 sec]
4: list: late -- 190.05 % -- [Elapsed: 0.0034715 sec]
5: list: end -- 193.78 % -- [Elapsed: 0.0035395 sec]
6: hashset: early -- 215.00 % -- [Elapsed: 0.0039271 sec]
7: hashset: end -- 248.47 % -- [Elapsed: 0.0045386 sec]
8: hashset: start -- 298.04 % -- [Elapsed: 0.005444 sec]
9: hashset: middle -- 325.63 % -- [Elapsed: 0.005948 sec]
10: hashset: late -- 431.62 % -- [Elapsed: 0.0078839 sec]
---------- Testing many long strings ------------
Sample items: (5000 total)
yrpjccgxjbketcpmnvyqvghhlnjblhgimybdygumtijtrwaromwrajlsjhxoselbucqualmhbmwnvnpnm
...
Benchmarks:
1: list: early -- 100.00 % -- [Elapsed: 0.0016211 sec]
2: list: start -- 132.73 % -- [Elapsed: 0.0021517 sec]
3: hashset: start -- 231.26 % -- [Elapsed: 0.003749 sec]
4: hashset: end -- 368.74 % -- [Elapsed: 0.0059776 sec]
5: hashset: middle -- 385.50 % -- [Elapsed: 0.0062493 sec]
6: hashset: late -- 406.23 % -- [Elapsed: 0.0065854 sec]
7: hashset: early -- 421.34 % -- [Elapsed: 0.0068304 sec]
8: list: middle -- 18,619.12 % -- [Elapsed: 0.3018345 sec]
9: list: end -- 40,942.82 % -- [Elapsed: 0.663724 sec]
10: list: late -- 41,188.19 % -- [Elapsed: 0.6677017 sec]
---------- Testing few ints ------------
Sample items: (16 total)
7266092 60668895 159021363 216428460 28007724
...
Benchmarks:
1: hashset: early -- 100.00 % -- [Elapsed: 0.0016211 sec]
2: hashset: end -- 100.45 % -- [Elapsed: 0.0016284 sec]
3: list: early -- 101.83 % -- [Elapsed: 0.0016507 sec]
4: hashset: late -- 108.95 % -- [Elapsed: 0.0017662 sec]
5: hashset: middle -- 112.29 % -- [Elapsed: 0.0018204 sec]
6: hashset: start -- 120.33 % -- [Elapsed: 0.0019506 sec]
7: list: late -- 134.45 % -- [Elapsed: 0.0021795 sec]
8: list: start -- 136.43 % -- [Elapsed: 0.0022117 sec]
9: list: end -- 169.77 % -- [Elapsed: 0.0027522 sec]
10: list: middle -- 237.94 % -- [Elapsed: 0.0038573 sec]
---------- Testing many ints ------------
Sample items: (10357 total)
370826556 569127161 101235820 792075135 270823009
...
Benchmarks:
1: list: early -- 100.00 % -- [Elapsed: 0.0015132 sec]
2: hashset: end -- 101.79 % -- [Elapsed: 0.0015403 sec]
3: hashset: early -- 102.08 % -- [Elapsed: 0.0015446 sec]
4: hashset: middle -- 103.21 % -- [Elapsed: 0.0015618 sec]
5: hashset: late -- 104.26 % -- [Elapsed: 0.0015776 sec]
6: list: start -- 126.78 % -- [Elapsed: 0.0019184 sec]
7: hashset: start -- 130.91 % -- [Elapsed: 0.0019809 sec]
8: list: middle -- 16,497.89 % -- [Elapsed: 0.2496461 sec]
9: list: end -- 32,715.52 % -- [Elapsed: 0.4950512 sec]
10: list: late -- 33,698.87 % -- [Elapsed: 0.5099313 sec]
答案 5 :(得分:10)
盈亏平衡将取决于计算哈希的成本。散列计算可以是微不足道的,或者不是...... :-)总有System.Collections.Specialized.HybridDictionary类可以帮助您不必担心盈亏平衡点。
答案 6 :(得分:6)
答案一如既往地是“取决于”。我假设您正在谈论C#。
最好的办法是确定
并编写一些测试用例。
它还取决于您对列表进行排序的方式(如果它完全排序),需要进行哪种比较,“比较”操作对列表中的特定对象进行多长时间,甚至取决于您的意图使用该系列。
通常,最好的选择不是基于您正在使用的数据大小,而是基于您打算如何访问它。您是否拥有与特定字符串或其他数据相关联的每条数据?基于哈希的集合可能是最好的。您存储的数据的顺序是否重要,或者您是否需要同时访问所有数据?常规列表可能会更好。
其他:
当然,我的上述评论假设“性能”意味着数据访问。还有其他需要考虑的因素:当你说“表现”时,你在寻找什么?绩效个人价值是否会抬头?管理大型(10000,100000或更多)价值集?是用数据填充数据结构的性能吗?删除数据?访问各个数据位?取代价值观?迭代价值观?内存使用情况?数据复制速度快?例如,如果您通过字符串值访问数据,但主要性能要求是最小内存使用量,则可能存在设计问题冲突。
答案 7 :(得分:5)
您可以使用HybridDictionary自动检测断点,并接受空值,使其与HashSet基本相同。
答案 8 :(得分:4)
这取决于。如果确切的答案真的很重要,做一些分析并找出答案。如果您确定集合中的元素数量不会超过一定数量,请使用列表。如果数字是无界的,请使用HashSet。
答案 9 :(得分:3)
取决于你的哈希值。如果你的键是整数,那么在HashSet更快之前你可能不需要很多项。如果你在一个字符串上键入它,那么它会更慢,并且取决于输入字符串。
当然,你可以很容易地制定基准?
答案 10 :(得分:3)
您不考虑的一个因素是GetHashcode()函数的健壮性。使用完美的哈希函数,HashSet显然具有更好的搜索性能。但随着哈希函数的减少,HashSet搜索时间也会减少。
答案 11 :(得分:0)
取决于很多因素......列表实现,CPU架构,JVM,循环语义,equals方法的复杂性等等......当列表变得足够大以有效地进行基准测试(1000+元素)时,Hash基于二进制的二进制查找击败线性搜索,差异只能从那里扩大。
希望这有帮助!