bigtable中每TB数据的推荐节点数

时间:2016-11-02 14:58:34

标签: google-cloud-bigtable bigdata

我希望在Bigtable中构建一个30TB且不断增长的单一(历史)表。我希望每日批量加载200GB,并在关键范围内偶尔进行批量查询。 Bigtable中每个节点的TB数量有哪些指导?我已经阅读了Cassandra的一些倾斜帖子,建议每个节点使用1TB,以及其他一些建议每个HBase节点6-12TB的帖子。我在Google Bigtable文档中找不到任何明确的指导。

1 个答案:

答案 0 :(得分:0)

工程部门说:这实际上取决于工作量 - 您应该尝试延长多天的实验,理想情况下,您将拥有大量节点并导入所有数据,然后调整到最小节点大小然后执行您希望在几天内读取/写入工作负载,特别是监视CPU使用情况。

我们正在编写关于过时/冷用例的说明。