开普勒的L2缓存

时间:2013-10-28 05:26:09

标签: caching cuda gpu nvidia

根据引用的位置,L2缓存如何在具有Kepler架构的GPU中工作?例如,如果一个线程访问全局内存中的地址,假设该地址的值不在L2缓存中,那么缓存的值是多少?是暂时的吗?或者该附近的其他附近值是否也被带到L2缓存(空间)?

下图来自NVIDIA白皮书。

Picture is from NVIDIA whitepaper

1 个答案:

答案 0 :(得分:10)

统一L2缓存是在计算能力2.0及更高版本的基础上推出的,并且继续在Kepler架构上得到支持。使用的缓存策略是LRU(最近最少使用),其主要目的是避免全局内存带宽瓶颈。 GPU应用程序可以展示两种类型的位置(时间和空间)。

每当尝试读取特定内存时,它会查找缓存L1和L2(如果未找到),那么它将从缓存行加载128字节。这是默认模式。从下图可以理解为什么128位访问模式给出了良好的结果。

enter image description here