我有表SampleTable
并通过SQL客户端(JackDB)运行以下Redshift命令
copy SampleTable
from 's3://bucket-name/backup/data.csv.gz'
credentials 'aws_access_key_id=xxx;aws_secret_access_key=xxx'
gzip
csv;
命令确实返回
成功执行在2.771秒内更新了0行。
但没有数据插入到空表SampleTable
中select count(*)
from SampleTabe
返回0
data.csv.gz中有100MB数据
答案 0 :(得分:1)
由我自己解决,数据与查询不对应。
我应该包括用于覆盖默认值的分隔符和用于跳过csv头的IGNOREHEADER 1。
在这种情况下没有记录stl_load_error的事实让人感到困扰