我正在寻找有趣的图像放大算法,可以在gpu上实现,以实现视频的实时缩放。线性和双三次插值算法不够好。
建议?
以下是我发现的一些论文,不确定它们是否适合实施gpu。
我已经在电视上看到了一些用于缩放的单元处理器的演示,这些演示有一些令人印象深刻的结果,不幸的是没有链接。
答案 0 :(得分:3)
lanczos3
是一种非常好的插值算法(你可以在GIMP或virtualDub中测试它)。它通常比三次插值表现更好,并且可以并行化
基于GPU的版本在Chromium中实现:
http://code.google.com/p/chromium/issues/detail?id=47447
查看铬源代码。
对于实时视频处理来说,它可能仍然太慢,但如果你不使用太高的分辨率,也许值得尝试。
答案 1 :(得分:2)
您可能还想试用CUVI Lib,它提供了一套很好的GPU加速图像处理算法。在http://www.cuvilib.com
上找到它披露:我是开发CUVI团队的一员。
答案 2 :(得分:1)
稍微“正在进行中”,但gpuCV是替代GPU上openCL中实现的openCV图像处理功能
答案 3 :(得分:1)
答案 4 :(得分:0)
您可能需要查看Super Resolution算法。 Starting Point on CiteseerX