我有功课,应该计算INTEL HEX的校验和。 但是我不知道如何添加十六进制数字。
char string[100] = ":10010000214601360121470136007EFE09D2190\n";
char hLength[5] = "0x", hHexSum[5] = "0x";
long length;
int i, hexSum = 0x0,x;
// We create hex format from first two numbers
hLength[2] = string[1];
hLength[3] = string[2];
hLength[4] = 0;
// Convert hex to dec number
length = (strtol(hLength, 0, 0))*2;
x = strlen(string);
// Add all hex numbers
for (i = 1; i <= (x-1); i++)
{
hHexSum[2] = string[i];
hHexSum[3] = string[i+1];
hHexSum[4] = 0;
printf("%d + %s ", hexSum, hHexSum);
hexSum = hexSum + hHexSum;
i = i + 1;
printf("DEC = %d; HEX = %x\n", hexSum, hexSum);
}
printf("%#08x\n", hexSum);
system("pause");
return 0;
现在输出为:
0 + 0x10 DEC = 7338140; HEX = 6ff89c
7338140 + 0x01 DEC = 14676280; HEX = dff138
14676280 + 0x00 DEC = 22014420; HEX = 14fe9d4
... and more
但是如果我是对的,正确的输出应该是
0 + 0x10 DEC = 16; HEX = 10
... and more
我不知道该如何解决。
//更新它的怪异之处,但是每次编译时,我都会得到不同的dec和hex值。
答案 0 :(得分:1)
这是罪魁祸首:
hexSum = hexSum + hHexSum;
hexSum
是一个整数,正确地初始化为0,可以精确到那里...
但是hHexSum
是char[5]
。在上面的表达式中,它衰减为指向第一个元素的指针,因此求和的结果是指向数组中索引为hexSum
的字符的指针,这不是您想要的。
您将该指针转换为整数,然后将其用作期望的总和,而不是期望的总和。顺便说一句,一个体面的编译器应该在这里警告将指针从转换为没有强制转换的整数。
在将字符串strtol
添加到hHexSum
之前,应使用hexSum
将字符串declare interface T {
prop: number // props signature for node
}
正确转换为整数值。