参考question:
有几种方法可以提高巨大网格的渲染速度。我尝试了以下实现:
方法比较:提交的顶点数据量始终相同。 VS调用:(0)==(2)> (1)
所以我想知道为什么方法(2)在量化和产生三角形退化的情况下不会比(0)快得多?
我想获得更多信息,为什么它表现得像这样,以及GPU上的瓶颈可能是什么。
答案 0 :(得分:1)
我讨厌提出明显的问题,但你是否尝试过将帧缓冲区调整为像1x1这样荒谬的东西,并确认瓶颈实际上是顶点处理?
如果没有屏幕截图或其他任何内容,我必须猜测你想要呈现的“巨大”网格是什么样的;我可以想到很多场景,其中巨大的网格导致大量的透支,此时你实际上可以填充边界,使用不同的LOD会产生很小的差异。
听起来很有趣,如果你绘制了很多(可能不可见的)子像素三角形,你也会遇到栅格化性能瓶颈。许多人永远不会因为它们不满足覆盖规则而存在阴影,但是如果你在光栅化阶段获得足够的微小原语,你就会付出与顶点处理无关的惩罚。 LOD可以很好地解决这个问题,所以这不太可能是你的问题。