我们使用安装在rackspace上的ambari为5节点安装了PHD3.0 hadoop集群版本。我们必须迁移到Google云端(GCP)。
但没有获得步骤如何进行以下
Q1 :如何将数据,元数据配置从旧机器迁移到新机器。 (Old Machine版本是vantos 6.5到目标机器版本centos 6.5)
Q2 :要备份哪些组件和文件夹?命令是什么?
Q3 :如何备份nameode和datanodes?
Q4 :我们还需要备份ambari数据库吗?
对此有任何帮助将不胜感激?
答案 0 :(得分:1)
我个人更喜欢在GCP中配置hadoop集群,并使用distcp将数据移动到新集群。 对于hawq托管表,将数据移动到hdfs,然后执行distcp。 AWS上的某些场合我将数据移动到s3并导回到hadoop。