CUDA概念的标准并行术语是什么?

时间:2011-07-30 22:13:46

标签: cuda terminology

注意:抱歉这不是一个编程问题;如果有更合适的stackexchange站点,请迁移它(我没有看到任何;它不是理论CS)。

我正在为某些与GPU编程相关的概念寻找更少的CUDA特定术语。 OpenCL有点帮助。我正在寻找“并行性理论”/研究论文单词,而不是新编程语言的实用关键词。请随时发布补充和更正。

“经纱”

我通常把它等同于SIMD宽度。

“块”

替代方案

  • “group”(OpenCL)。
  • “thread-block” - 想要更短的内容
  • “瓦片”

“syncthreads”

似乎“屏障”是我认为用于多核CPU编程和OpenCL的更通用的词。还有别的吗?

“共享内存”

替代方案

  • “本地记忆”(OpenCL)。
  • “tile / block cache”?

“内核”

替代方案

  • “CTA /协作线程数组”(OpenCL)。太多的一口,不知道这意味着什么。
  • “GPU程序” - 很难区分内核调用。
  • “设备计算”?

1 个答案:

答案 0 :(得分:2)

对于CUDA和openCL的详细细节,并没有足够的技术中立条款,如果你使用了更多通用术语,如“共享内存”或“缓存”,你就不会明确说明你的意思了什么

我认为您可能必须坚持使用一种技术中的术语(可能将另一种技术放在括号中)或使用“他/她”类型的语言,并添加额外的解释,如果一个术语在另一个术语中没有相应的用途