这段CUDA代码报告了Nsight分析时的大量银行冲突。第一个片段包含常量定义和内核调用:
// Front update related constants
#define NDEQUES 6
#define FRONT_UPDATE_THREADS 480
#define BVTT_DEQUE_SIZE 500000
#define FRONT_DEQUE_SIZE 5000000
#define FRONT_UPDATE_SHARED_SIZE FRONT_UPDATE_THREADS*2
updateFront<OBBNode , OBB , BVTT_DEQUE_SIZE , FRONT_DEQUE_SIZE , FRONT_UPDATE_THREADS>
<<<NDEQUES, FRONT_UPDATE_THREADS>>>
(d_aFront , d_aOutputFront , d_aiFrontCounts , d_aWorkQueues , d_aiWorkQueueCounts , d_collisionPairs ,
d_collisionPairIndex , obbTree1 , d_triIndices1);
第二个片段有内核代码:
template<typename TreeNode , typename BV , unsigned int uiGlobalWorkQueueCapacity , unsigned int uiGlobalFrontCapacity ,
unsigned int uiNThreads>
void __global__ updateFront(Int2Array *aFront , Int2Array *aOutputFront , int *aiFrontIdx , Int2Array *aWork_queues ,
int* aiWork_queue_counts , int2 *auiCollisionPairs , unsigned int *uiCollisionPairsIdx , const TreeNode* tree ,
uint3 *aTriIndices)
{
__shared__ unsigned int uiInputFrontIdx;
__shared__ unsigned int uiOutputFrontIdx;
__shared__ unsigned int uiWorkQueueIdx;
__shared__ int iLeafLeafOffset;
__shared__ int iNode0GreaterOffset;
__shared__ int iNode1GreaterOffset;
__shared__ int aiLeafLeafFrontX[FRONT_UPDATE_SHARED_SIZE];
__shared__ int aiLeafLeafFrontY[FRONT_UPDATE_SHARED_SIZE];
__shared__ int aiNode0GreaterFrontX[FRONT_UPDATE_SHARED_SIZE];
__shared__ int aiNode0GreaterFrontY[FRONT_UPDATE_SHARED_SIZE];
__shared__ int aiNode1GreaterFrontX[FRONT_UPDATE_SHARED_SIZE];
__shared__ int aiNode1GreaterFrontY[FRONT_UPDATE_SHARED_SIZE];
if(threadIdx.x == 0)
{
uiInputFrontIdx = aiFrontIdx[blockIdx.x];
uiOutputFrontIdx = 0;
uiWorkQueueIdx = aiWork_queue_counts[blockIdx.x];
iLeafLeafOffset = 0;
iNode0GreaterOffset = 0;
iNode1GreaterOffset = 0;
}
__syncthreads();
unsigned int uiThreadOffset = threadIdx.x;
while(uiThreadOffset < uiInputFrontIdx + FRONT_UPDATE_THREADS - (uiInputFrontIdx % FRONT_UPDATE_THREADS))
{
if(uiThreadOffset < uiInputFrontIdx)
{
int2 bvttNode;
aFront->getElement(bvttNode , blockIdx.x*FRONT_DEQUE_SIZE + uiThreadOffset);
TreeNode node0 = tree[bvttNode.x];
TreeNode node1 = tree[bvttNode.y];
if(node0.isLeaf() && node1.isLeaf())
{
int iOffset = atomicAdd(&iLeafLeafOffset , 1);
//Bank conflict source
aiLeafLeafFrontX[iOffset] = bvttNode.x;
aiLeafLeafFrontY[iOffset] = bvttNode.y;
//End of bank conflict source
}
else if(node1.isLeaf() || (!node0.isLeaf() && (node0.bbox.getSize() > node1.bbox.getSize())))
{ // node0 is bigger. Subdivide it.
int iOffset = atomicAdd(&iNode0GreaterOffset , 1);
//Bank conflict source
aiNode0GreaterFrontX[iOffset] = bvttNode.x;
aiNode0GreaterFrontY[iOffset] = bvttNode.y;
//End of bank conflict source
}
else
{ // node1 is bigger. Subdivide it.
int iOffset = atomicAdd(&iNode1GreaterOffset , 1);
//Bank conflict source
aiNode1GreaterFrontX[iOffset] = bvttNode.x;
aiNode1GreaterFrontY[iOffset] = bvttNode.y;
//End of bank conflict source
}
}
__syncthreads();
/* ... */
uiThreadOffset += uiNThreads;
__syncthreads();
}
我想知道为什么银行冲突正在发生。我认为冲突可能发生的唯一方法是,如果映射到同一个银行的不同数组中的访问被序列化。
答案 0 :(得分:1)
我看到两种可能性。需要进一步测试以选择哪一个是罪魁祸首:
银行冲突不是从您选择的位置发生的,而是来自atomicAdd
操作,这些操作也适用于共享内存。我相信shmem上的原子也可以增加内部冲突计数器。 (信仰没有经过测试!)
您遇到两个或多个经线原子上增加相同值的情况 - 这可能是在同时运行2或4个经线的较新硬件上的可能性。 (也需要进行测试以确认或否认这一点)。因此,一个warp中的线程实际上可能会获得相当远的iOffset
值,并且最终会出现一些随机的银行冲突。
但是,如果上述任何一种情况属实,我都不会担心这些冲突。在第一种情况下 - atomicAdd
无论如何都会影响您的表现。在后一种情况下,我不希望经常出现大于双向的银行冲突。除非你遇到一些非常罕见的角落......