HDFS是否支持特殊字符(变音符号等)?

时间:2016-05-19 14:11:36

标签: hadoop solr hdfs redhat hue

我正在尝试将带有变音符号的文件添加到hdfs,但是当我这样做时,我会收到如下所示的错误消息

++ hdfs dfs -put $'data/R\366\337el.doc' solr/test/test.data
put: `test.data/R��el.doc': No such file or directory

那我该怎么办?例如,用ä翻译文件到ae还是有另一种处理方法吗?

1 个答案:

答案 0 :(得分:1)

HDFS使用其字符串为UTF-16编码的Java存储这些字符串。在线上Hadoop的RPC使用UTF-8,其中包含变音符号和各种其他字符。

您可能遇到的问题是您的shell似乎不支持编码或字符。

如果有疑问,您可以随时使用Java API将文件放入HDFS,这需要编写一些代码。