为什么Java和Javascript中的字节数组表示不同?

时间:2015-10-13 09:56:58

标签: javascript java arrays encoding utf-8

我试图在Java和Javascript中看到UTF-8字节。

在Javascript中,

new TextEncoder().encode("");返回=> [240, 159, 145, 141]

在Java中,

"".getBytes("UTF-8")返回=> [-16, -97, -111, -115]

我使用与语言相对应的方法(JSJava)将这些字节数组转换为十六进制字符串,并返回F09F918D

事实上,-16 & 0xFF给出了=> 240

我很想知道为什么两种语言都选择不同的表示字节数组的方式。我花了一段时间才弄清楚这一点。

1 个答案:

答案 0 :(得分:4)

在Java中,所有字节都被签名。因此,一个字节的范围是-128到127.但是在Javascript中,返回的值很简单地说是整数。所以它可以使用最大255的整个范围以十进制表示。

因此,如果将两个结果转换为1字节十六进制表示 - 那些将是相同的:F0 9F 91 8D

说到为什么 java决定消除无符号类型,这是一个单独的discussion