我有一个函数应该以十六进制EBCDIC格式接收数据并将其转换为ASCII。
例如,转换数据,F1F1F0F0应该给我一个1100的ASCII,或31313030的十六进制ASCII。
我发现的是:
def __decode_ASC_EBCDIC_DT(self, data):
if (data[0] == '3'):
#HEX ASCII
dt_ = ''.join(chr(int(data[i:i + 2], 16)) for i in range(0, len(data), 2))
return dt_
elif (data[0] == 'F'):
#HEX EBCDIC
try:
tmp = bytearray(ord(c) for c in data)
dt_ = ''.join(tmp.decode('cp500'))
except:
print('can\'t convert:' + data)
return dt_
但似乎CP500在'ãããã'中转换了我的数据,在这种情况下,这是不正确的。 (tmp是正确的bytearray(b'F1F1F0F0'))
任何想法,还是我应该为EBCDIC制作自己的字典?
答案 0 :(得分:1)
bytearray(b'F1F1F0F0')不是你认为的那样。它是ASCII字符串'F1F1F0F0'的字节表示。
>>input = bytearray(b'F1F1F0F0')
>>> for item in input: print(item)
70
49
70
49
70
48
70
48
从EBCDIC的角度来看,你所传递的是无意义的:EBCDIC 48,49和70是未定义的,因此codecs.decode将产生毫无意义的输出。
我不确定你从哪里获得输入,但如果你想将EBCDIC字符串转换为ascii,你可以这样做:
>>> input=bytearray([241, 241, 240, 240])
>>> for item in input: print(item)
241
241
240
240
>>> import codecs
>>> codecs.decode(input, 'cp500')
'1100'
答案 1 :(得分:0)
上面代码中的错误是输入应该被视为HEX(感谢Kevin指出它)。
更正的代码:
def __decode_ASC_EBCDIC_DT(self, data):
if (data[0] == '3'):
#HEX ASCII
dt_ = ''.join(chr(int(data[i:i + 2], 16)) for i in range(0, len(data), 2))
return dt_
elif (data[0] == 'F'):
#HEX EBCDIC
try:
dt_ = ''.join(bytearray.fromhex(data).decode('cp500'))
except:
print('can\'t convert:' + data)
return dt_