我正在尝试使用--hive-import以拼花格式加载从mysql到hive的表,我们想要对hive表进行增量更新。当我们尝试下面的命令。它失败了下面提到的错误。有人可以帮忙吗。
sqoop job --create users_test_hive - import --connect' jdbc:mysql:// dbhost / dbname?characterEncoding = utf8& dontTrackOpenResources = true& defaultFetchSize = 1000& useCursorFetch = true& useUnicode = yes& characterEncoding = UTF8' --table users --incremental lastmodified --check-column n_last_updated --username username --password password --merge-key user_id --mysql-delimiters --as-parquetfile --hive-import --warehouse-dir / usr / hive / warehouse / --hive-table users_test_hive。
运行时出错。
16/02/27 21:33:17 INFO mapreduce.Job:任务ID:attempt_1454936520418_0239_m_000000_1,状态:未通过 错误:parquet.column.ParquetProperties.newColumnWriteStore(Lparquet / schema / MessageType; Lparquet / column / page / PageWriteStore; I)Lparquet / column / ColumnWriteStore;