我们需要定期(每小时/每天/任意)将数据从Hive表(Hadoop)移至GCP(Google Cloud Platform)BigQuery。有多个表,数据量巨大。您能否让我知道在这种情况下是否可以使用Cloud Data Flow(CDF)?有其他选择吗?
谢谢!
关于, 库马尔
答案 0 :(得分:0)
有许多解决方案,具体取决于您使用的时间范围,但是其中的任何一个或全部都涉及使用gsutil将数据从HDFS复制到本地文件系统,然后再复制到GCS。另外,您也可以使用MySQL备份开发一种解决方案,然后将其还原到GCP上