COPY tmp_data FROM 's3://mybucket/copy/batch_insert_data_1417072335118.json' credentials 'aws_access_key_id=XXXXXXXXXXXXXXX;aws_secret_access_key=YyYYYyyYYYYYyyYYYYyyYYYYY' json gzip ACCEPTINVCHARS ' ' TRUNCATECOLUMNS TRIMBLANKS;
以上COPY命令在没有gzip的情况下工作。但是现在我想使用gzip来加速这个过程。现在我将一个gzip压缩的json文件上传到S3存储桶中。但上面的复制命令不起作用?任何想法如何从Redshift中的COPY加载gzip压缩的json文件?
答案 0 :(得分:6)
您缺少json_option(http://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)。尝试设置它' auto'。请参阅下面的更正示例:
COPY tmp_data FROM 's3://mybucket/copy/batch_insert_data_1417072335118.json' credentials 'aws_access_key_id=XXXXXXXXXXXXXXX;aws_secret_access_key=YyYYYyyYYYYYyyYYYYyyYYYYY' json 'AUTO' gzip ACCEPTINVCHARS ' ' TRUNCATECOLUMNS TRIMBLANKS;