我需要能够将8位或16位灰度像素数据转换为.NET框架可以支持的文件格式。
我可用的数据是宽度,高度,方向(左下角)和像素格式为4096个灰度(12位分辨率),每个像素包含2个字节。
因此,例如,每个像素的范围为0到4096,每个像素为2个字节。
我已尝试将PixelFormat.Format16bppGrayScale与Bitmap构造函数一起使用,并抛出GDI +异常。我读过的所有内容都说不支持这种格式,并且MSDN错误。
我希望将此像素缓冲区转换为.NET位图格式(例如Format32bppArgb),尽可能减少图像质量。
任何人都知道怎么做?
答案 0 :(得分:6)
请参阅下面的示例,该示例预先计算查找表(LUT)并使用它来转换每个像素。此版本涵盖您的12位案例;对于8位代码非常相似,但很难对像素格式进行推广。
从12位GS到有效8位GS的转换将丢失数据。但是,您可以调整LUT表以聚焦较小范围的输入值,并获得更好的对比度(例如DICOM Window Center/Window Width)。
class Program
{
static void Main( string[] args )
{
// Test driver - create a Wedge, convert to Bitmap, save to file
//
int width = 4095;
int height = 1200;
int bits = 12;
byte[] wedge = Wedge( width, height, bits );
Bitmap bmp = Convert( wedge, width, height, bits );
string file = "wedge.png";
bmp.Save( file );
Process.Start( file );
}
static Bitmap Convert( byte[] input, int width, int height, int bits )
{
// Convert byte buffer (2 bytes per pixel) to 32-bit ARGB bitmap
var bitmap = new Bitmap( width, height, PixelFormat.Format32bppArgb );
var rect = new Rectangle( 0, 0, width, height );
var lut = CreateLut( bits );
var bitmap_data = bitmap.LockBits( rect, ImageLockMode.WriteOnly, bitmap.PixelFormat );
ConvertCore( width, height, bits, input, bitmap_data, lut );
bitmap.UnlockBits( bitmap_data );
return bitmap;
}
static unsafe void ConvertCore( int width, int height, int bits, byte[] input, BitmapData output, uint[] lut )
{
// Copy pixels from input to output, applying LUT
ushort mask = (ushort)( ( 1 << bits ) - 1 );
int in_stride = output.Stride;
int out_stride = width * 2;
byte* out_data = (byte*)output.Scan0;
fixed ( byte* in_data = input )
{
for ( int y = 0; y < height; y++ )
{
uint* out_row = (uint*)( out_data + ( y * in_stride ) );
ushort* in_row = (ushort*)( in_data + ( y * out_stride ) );
for ( int x = 0; x < width; x++ )
{
ushort in_pixel = (ushort)( in_row[ x ] & mask );
out_row[ x ] = lut[ in_pixel ];
}
}
}
}
static uint[] CreateLut( int bits )
{
// Create a linear LUT to convert from grayscale to ARGB
int max_input = 1 << bits;
uint[] lut = new uint[ max_input ];
for ( int i = 0; i < max_input; i++ )
{
// map input value to 8-bit range
//
byte intensity = (byte)( ( i * 0xFF ) / max_input );
// create ARGB output value A=255, R=G=B=intensity
//
lut[ i ] = (uint)( 0xFF000000L | ( intensity * 0x00010101L ) );
}
return lut;
}
static byte[] Wedge( int width, int height, int bits )
{
// horizontal wedge
int max = 1 << bits;
byte[] pixels = new byte[ width * height * 2 ];
for ( int y = 0; y < height; y++ )
{
for ( int x = 0; x < width; x++ )
{
int pixel = x % max;
int addr = ( ( y * width ) + x ) * 2;
pixels[ addr + 1 ] = (byte)( ( pixel & 0xFF00 ) >> 8 );
pixels[ addr + 0 ] = (byte)( ( pixel & 0x00FF ) );
}
}
return pixels;
}
}
答案 1 :(得分:1)
欺骗16b格式&amp;在显示之前使用ColorMatrix正确映射它。
我还没有在Windows上对这种方法进行过性能测试,但在其他平台(例如Android)上我需要高效的内存存储并快速重新映射12b或16b数据中的不同范围我已经很好地利用了这种技术。
我告诉它我的12 / 16b灰度数据真的是RGB565,所以它很开心序列化,反序列化&amp;其他操纵。当我需要显示时,我将它传递给ColorMatrix,它将相应的窗口映射到ARGB8888中的8b灰度。
如果有人想尝试这个,我会发布我的映射算法。
答案 2 :(得分:0)
两种可能的方式: