我正在为视频应用寻找快速,肮脏,非常有效的边缘检测着色器或边缘网格。由于这将在移动设备上完成,因此我需要能够提高性能而不是准确性的东西。无论如何我会模糊输出,我所看到的所有边缘检测算法都倾向于通过比较原始图像和模糊图像的特定阈值来完成。我认为这种模糊往往会导致最大的性能问题。
我有这样的功能:
vec4 edge()
{
float K00 = -1.0;
float K01 = -2.0;
float K02 = -1.0;
float K10 = 0.0;
float K11 = 0.0;
float K12 = 0.0;
float K20 = 1.0;
float K21 = 2.0;
float K22 = 1.0;
vec2 ox = vec2 (0.0,0.0);
ox[0] = width;
vec2 oy = vec2 (0.0,0.0);
oy[1] = height;
float g00, g01, g02;
float g10, g11, g12;
float g20, g21, g22;
vec4 CC;
vec2 PP = TextureCoord - oy;
CC = texture2D(blurredFrame, vec2(PP-ox));
g00 = getGrey(CC);
CC = texture2D(blurredFrame, vec2(PP));
g01 = getGrey(CC);
CC = texture2D(blurredFrame, vec2(PP+ox));
g02 = getGrey(CC);
PP = TextureCoord;
CC = texture2D(blurredFrame, vec2(PP-ox));
g10 = getGrey(CC);
CC = texture2D(blurredFrame, vec2(PP));
g11 = getGrey(CC);
CC = texture2D(blurredFrame, vec2(PP+ox));
g12 = getGrey(CC);
PP = TextureCoord + oy;
CC = texture2D(blurredFrame, vec2(PP-ox));
g20 = getGrey(CC);
CC = texture2D(blurredFrame, vec2(PP));
g21 = getGrey(CC);
CC = texture2D(blurredFrame, vec2(PP+ox));
g22 = getGrey(CC);
float sx = 0.0, sy = 0.0;
sx = sx + g00 * K00;
sx = sx + g01 * K01;
sx = sx + g02 * K02;
sx = sx + g10 * K10;
sx = sx + g11 * K11;
sx = sx + g12 * K12;
sx = sx + g20 * K20;
sx = sx + g21 * K21;
sx = sx + g22 * K22;
sy = sy + g00 * K00;
sy = sy + g01 * K10;
sy = sy + g02 * K20;
sy = sy + g10 * K01;
sy = sy + g11 * K11;
sy = sy + g12 * K21;
sy = sy + g20 * K02;
sy = sy + g21 * K12;
sy = sy + g22 * K22;
float dist = sqrt(sx * sx + sy * sy);
return dist > threshold ? vec4 (0,0,0,1) : vec4 (1,1,1,1);
}
我所看到的所有示例都是这样的,似乎专注于桌面平台 - 在iPhone或Android设备上获得合适的帧速率也太费力和昂贵。这仅适用于2d应用程序,速度是关键。
任何提高效率的想法,或者更好的选择?谢谢大家。
答案 0 :(得分:4)
不确定我是否知道不同的算法。
但是,我想到了一些建议:
答案 1 :(得分:1)
我有一些关于优化纹理样本的想法:
- 无需对相应系数为零的地方进行采样 (K1 *)。
- 使用texture2DOffset而不是texture2D。它接受常数整数 偏移,允许司机 更多地预测您的访问模式 有效。
- 您正在对样本进行加权。您可以使用内置线性过滤 这样做的机制。例如,到 得到两个邻居的样本总和 您可以线性采样的纹素(仅限 一次)他们之间,并乘以 结果为2.此变体排除 以前的建议。
醇>