我们目前有一个ds2.xlarge的Redshift集群,我们想将其大小调整为dc2.large,但是这样做有很多问题。我们收到一个错误消息,说磁盘空间不足。
当前,我们有大约720GB的数据,并且正在尝试将其大小调整为具有5个节点(800gb)的dc2。
我不确定为什么要得到这个?你有什么主意吗?
答案 0 :(得分:1)
Hibari-不建议将720GB的数据打包到Redshift群集中,最大存储量为800GB。这有几个原因:
节点类型之间的转换将影响数据在磁盘上的存储方式-您正在从16个切片的1(?)节点移动到10个切片的5个节点。如果您有分配所有表,这些将被存储5次,而不是一次。这个新群集上的数据库大小可能不一样-可能更大或更小。
我希望真正的限制是组织新群集上的数据,因为这些数据来自旧群集。正如我提到的,飞行中的数据未压缩时,很可能是导致该问题的工作集。
您需要一个更大的群集来容纳大量数据。