Pivotal:HDFS-HAWQ - 迁移到新硬件

时间:2016-11-14 19:12:44

标签: hadoop hdfs ambari hawq

我们使用安装在rackspace上的ambari为5节点安装了PHD3.0 hadoop集群版本。我们必须迁移到Google云端(GCP)。

但没有获得步骤如何进行以下

Q1 :如何将数据,元数据配置从旧机器迁移到新机器。 (Old Machine版本是vantos 6.5到目标机器版本centos 6.5)

Q2 :要备份哪些组件和文件夹?命令是什么?

Q3 :如何备份nameode和datanodes?

Q4 :我们还需要备份ambari数据库吗?

对此有任何帮助将不胜感激?

1 个答案:

答案 0 :(得分:1)

我个人更喜欢在GCP中配置hadoop集群,并使用distcp将数据移动到新集群。 对于hawq托管表,将数据移动到hdfs,然后执行distcp。 AWS上的某些场合我将数据移动到s3并导回到hadoop。