我有这个CSV文件:
reference,address
V7T452F4H9,"12410 W 62TH ST, AA D"
表定义
中使用了以下选项ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.OpenCSVSerde'
WITH SERDEPROPERTIES (
'quoteChar'='\"',
'separatorChar'=',')
但它仍然无法识别数据中的双引号,并且双引号中的逗号会弄乱数据。当我运行Athena查询时,结果如下所示
reference address
V7T452F4H9 "12410 W 62TH ST
如何解决此问题?
答案 0 :(得分:2)
看起来您还需要添加escapeChar
。 AWS Athena docs显示了此示例:
CREATE EXTERNAL TABLE myopencsvtable (
col1 string,
col2 string,
col3 string,
col4 string
)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.OpenCSVSerde'
WITH SERDEPROPERTIES (
'separatorChar' = ',',
'quoteChar' = '\"',
'escapeChar' = '\\'
)
STORED AS TEXTFILE
LOCATION 's3://location/of/csv/';
答案 1 :(得分:2)
我这样做是为了解决
1-创建一个不会覆盖目标表属性的Crawler,我为此使用了boto3,但可以在AWS控制台中将其创建为,执行此操作(更改de xxx-var):
import boto3
client = boto3.client('glue')
response = client.create_crawler(
Name='xxx-Crawler-Name',
Role='xxx-Put-here-your-rol',
DatabaseName='xxx-databaseName',
Description='xxx-Crawler description if u need it',
Targets={
'S3Targets': [
{
'Path': 's3://xxx-Path-to-s3/',
'Exclusions': [
]
},
]
},
SchemaChangePolicy={
'UpdateBehavior': 'LOG',
'DeleteBehavior': 'LOG'
},
Configuration='{ \
"Version": 1.0, \
"CrawlerOutput": { \
"Partitions": {"AddOrUpdateBehavior": "InheritFromTable" \
}, \
"Tables": {"AddOrUpdateBehavior": "MergeNewColumns" } \
} \
}'
)
# run the crawler
response = client.start_crawler(
Name='xxx-Crawler-Name'
)
2-编辑序列化库,我在AWS控制台中执行此操作,如本文所述(https://docs.aws.amazon.com/athena/latest/ug/glue-best-practices.html#schema-csv-quotes) 只需更改此内容即可:
3-再次运行Crawler。像往常一样运行搜寻器:
4-就是这样,您的第二次运行不应更改表中的任何数据,而只是为了测试它是否有效\\ _(ツ)_ /¯。