我正在解析一个包含纹理坐标(vt)值的obj文件。根据我的理解,vt值是映射到与该obj对应的纹理图像。
假设我有图像im = 400x300像素
我有一个vt值
vt .33345 .8998
映射说,在图像中,去坐标:
imageWidth x .3345,imageHeight x .8998并使用那里的值。
我已将图像值加载到二维数组中。
问题是,这些映射坐标是浮点值,我想如何将它们映射到像素坐标的整数值?我总是可以截断小数部分,舍入等等。但标准是否定义了哪一个选项要完成?
答案 0 :(得分:3)
Uv-坐标始终在[0,1]范围内。这意味着,您将通过将它们与图像大小相乘来获得实际像素坐标:
texel_coord = uv_coord * [width, height]
注意,即使在这里,一个人获得浮点值,并且有几种方法可以处理它们。最原始的是简单地舍入到下一个整数以获得最近的纹素。更复杂的方法是bilinear filtering。
答案 1 :(得分:1)
UV坐标到像素坐标
pix.x = (uv.x * texture.width) -0.5
pix.y = ((1-uv.y) * texture.height) -0.5
uv坐标的y轴与图像上的Pixel坐标相反。
对于最近的邻居插值,只需四舍五入像素坐标即可。
对于双线性插值,请从四个相邻像素计算参与百分比并进行加权平均。
以下是一些带有“重复”纹理包装的双线性插值的Java代码:
private static int billinearInterpolation(Point2D uv, BufferedImage texture) {
uv.x = uv.x>0 ? uv.x%1 : 1+(uv.x%1);
uv.y = uv.y>0 ? uv.y%1 : 1+(uv.y%1);
double pixelXCoordinate = uv.x * texture.getWidth() - 0.5;
double pixelYCoordinate = (1-uv.y) * texture.getHeight() - 0.5;
pixelXCoordinate = pixelXCoordinate<0?texture.getWidth()-pixelXCoordinate: pixelXCoordinate;
pixelYCoordinate = pixelYCoordinate<0?texture.getHeight()-pixelYCoordinate : pixelYCoordinate;
int x = (int) Math.floor(pixelXCoordinate);
int y = (int) Math.floor(pixelYCoordinate);
double pX = pixelXCoordinate - x;
double pY = pixelYCoordinate - y;
float[] px = new float[]{(float) (1 - pX), (float) pX};
float[] py = new float[]{(float) (1 - pY), (float) pY};
float red = 0;
float green = 0;
float blue = 0;
float alpha = 0;
for (int i = 0; i < px.length; i++) {
for (int j = 0; j < py.length; j++) {
float p = px[i] * py[j];
if (p != 0) {
int rgb = texture.getRGB((x + i)%texture.getWidth(), (y + j)%texture.getHeight());
alpha += (float) ((rgb >> 24) & 0xFF) * p;
red += (float) ((rgb >> 16) & 0xFF) * p;
green += (float) ((rgb >> 8) & 0xFF) * p;
blue += (float) ((rgb >> 0) & 0xFF) * p;
}
}
}
return (((int) alpha & 0xFF) << 24) |
(((int) red & 0xFF) << 16) |
(((int) green & 0xFF) << 8) |
(((int) blue & 0xFF) << 0);
}