将数据加载到Redshift& BigQery直接来自Hadoop / HDFS(本地/内部群集)

时间:2014-06-06 15:09:56

标签: database amazon-web-services google-bigquery google-cloud-sql amazon-redshift

有没有办法将数据加载到Redshift& BigQery直接来自Hadoop / HDFS(本地/内部群集)。我需要将1TB的数据加载到Redshift& BigQuery的。所以寻找有效的方法来做到这一点。

由于

2 个答案:

答案 0 :(得分:1)

您可以直接从Amazon EMR加载,但如果您使用本地 Hadoop群集,那么您必须将数据导出到S3并使用COPY命令加载到从那里红移:

Using a COPY command to load data

答案 1 :(得分:1)

您还可以使用支持Hadoop,Redshift,BigQuery,Google云端存储和Amazon S3的ETL工具。

Talend for Big Data是一种支持所有这些不同数据源的ETL解决方案。