标签: hadoop hive db2 bigdata bigsql
当我在BigSQL表中加载数据时,超出32762个字符的数据将被截断。我的表定义如下:
创建hadoop TABLE schema_name.table_name ( column1 VARCHAR(50), column2 INTEGER, column3 STRING, 加载日期TIMESTAMP ) 存储为PARQUET;
for列3被截断。 有没有办法存储完整数据?
答案 0 :(得分:0)
也许CLOB是您正在寻找的答案