我试图在Java和Javascript中看到UTF-8字节。
在Javascript中,
new TextEncoder().encode("");
返回=> [240, 159, 145, 141]
在Java中,
"".getBytes("UTF-8")
返回=> [-16, -97, -111, -115]
我使用与语言相对应的方法(JS,Java)将这些字节数组转换为十六进制字符串,并返回F09F918D
事实上,-16 & 0xFF
给出了=> 240
我很想知道为什么两种语言都选择不同的表示字节数组的方式。我花了一段时间才弄清楚这一点。
答案 0 :(得分:4)
在Java中,所有字节都被签名。因此,一个字节的范围是-128到127.但是在Javascript中,返回的值很简单地说是整数。所以它可以使用最大255的整个范围以十进制表示。
因此,如果将两个结果转换为1字节十六进制表示 - 那些将是相同的:F0 9F 91 8D
。
说到为什么 java决定消除无符号类型,这是一个单独的discussion。