Spark.Sql无法从蜂巢表中读取日语(Mutltbyte字符)?

时间:2019-07-10 16:30:26

标签: apache-spark hive apache-spark-sql multibyte-characters

我正在蜂巢表中写入日语​​字符,这是我的程序之一。稍后,当我从Hive中选择该字段时,我可以读取它,但是当我从Spark.sql中读取它时,它并没有给我预期的结果。

spark.sql(“从abc.ac_tbl中选择SQL_VAL作为sql_val,其中d_name ='2019-07-09_14:26:16.486'”).show()

+ ------- + | sql_val | + ------- + | ?| + ------- +

从蜂巢进行查询时,同一张表给出输出-

从abc.ac_tbl中选择SQL_VAL作为sql_val,其中d_name ='2019-07-09_14:26:16.486' sql_val 文

0 个答案:

没有答案