如何加载和存储nvarchar

时间:2016-05-04 16:34:43

标签: hadoop character-encoding hive sqoop nvarchar

Stack:使用Ambari 2.1安装HDP-2.3.2.0-2950 我遵循的步骤:

  1. 使用Sqoop
  2. 将SQL服务器表加载到HDFS
  3. 在Hive中创建EXTERNAL表
  4. 执行sqoop import命令并导入成功时,我没有使用与charset / unicode / utf-8相关的任何内容

    在创建Hive外部表时,我想知道我应该为原始sql server表中的nvarchar列选择什么数据类型,现在我担心即使在Sqoop中导入时也需要解决。

    1. 在Sqoop import
    2. 中找不到相关的charset / nvarchar等选项
    3. 在Hive中,可以盲目地使用varchar / string代替nvarchar

1 个答案:

答案 0 :(得分:0)

我们知道nvarchar无法理解sqoop类型,因此我们需要将其转换为varchar e.g。

select 
CAST(col1 AS varchar )  AS col1,
col2,
col3,
col4
from table_name