我的程序是一个管道,其中包含多个内核和memcpys。每个任务将通过相同的管道使用不同的输入数据。主机代码在处理任务时将首先选择一个Channel,一个便笺本存储器和CUDA对象的封装。在最后一个阶段之后,我将记录一个事件,然后将处理下一个任务。
主要的管道逻辑如下。 问题是,不同流中的操作没有重叠。我附上了处理10个任务的时间表。您可以看到流中没有任何操作重叠。对于每个内核,一个块中有256个线程,而网格中有5个块。
用于memcpy的所有缓冲区都是固定的,我确信我已经满足了requirements的要求,以实现重叠的内核执行和数据传输。有人可以帮我找出原因吗?谢谢。
环境信息
GPU:Tesla K40m(GK110)
最大翘曲度/ SM:64
最大线程块/ SM:16
最大线程数/ SM:2048
CUDA版本:8.0
void execute_task_pipeline(int stage, MyTask *task, Channel *channel) {
assert(channel->taken);
assert(!task->finish());
GPUParam *para = &channel->para;
assert(para->col_num > 0);
assert(para->row_num > 0);
// copy vid_list to device
CUDA_ASSERT( cudaMemcpyAsync(para->vid_list_d, task->vid_list.data(),
sizeof(uint) * para->row_num, cudaMemcpyHostToDevice, channel->stream) );
k_get_slot_id_list<<<WK_GET_BLOCKS(para->row_num),
WK_CUDA_NUM_THREADS, 0, channel->stream>>>(
vertices_d,
para->vid_list_d,
para->slot_id_list_d,
config.num_buckets,
para->row_num);
k_get_edge_list<<<WK_GET_BLOCKS(para->row_num),
WK_CUDA_NUM_THREADS, 0, channel->stream>>>(
vertices_d,
para->slot_id_list_d,
para->edge_size_list_d,
para->offset_list_d,
para->row_num);
k_calc_prefix_sum(para, channel->stream);
k_update_result_table_k2u<<<WK_GET_BLOCKS(para->row_num),
WK_CUDA_NUM_THREADS, 0, channel->stream>>>(
edges_d,
para->vid_list_d,
para->updated_result_table_d,
para->prefix_sum_list_d,
para->offset_list_d,
para->col_num,
para->row_num);
para->col_num += 1;
// copy result back to host
CUDA_ASSERT( cudaMemcpyAsync(&(channel->num_new_rows), para->prefix_sum_list_d + para->row_num - 1,
sizeof(uint), cudaMemcpyDeviceToHost, channel->stream) );
// copy result to host memory
CUDA_ASSERT( cudaMemcpyAsync(channel->h_buf, para->updated_result_table_d,
channel->num_new_rows * (para->col_num + 1), cudaMemcpyDeviceToHost, channel->stream) );
// insert a finish event in the end of pipeline
CUDA_ASSERT( cudaEventRecord(channel->fin_event, channel->stream) );
}
答案 0 :(得分:1)
您是否要重叠82微秒内的处理?
由于已经对应用程序进行了概要分析,因此线索可能位于两个内核执行之间的橙色大框内(在图像中看不到这样的地方)。
如果这是同步,请将其删除。
如果这是像cudaLaunch_KernelName这样的跟踪,请尝试使处理更大(更多数据或更多计算),因为向GPU发送指令所花的时间比执行它要花费的时间多,因此您无法进行并行计算进入这些不同的流。