HBase数据加载(数十TB)

时间:2017-08-21 15:43:24

标签: hadoop hbase phoenix

用例:现在使用Phoenix从CSV文件加载HBASE表中的数据字节数,也将从Hive加载

群集设置:六个区域服务器

问题:我尝试过Phoenix提供的批量加载选项,性能是每分钟处理1到2 GB,但我正在寻找更快的性能。你能帮我一些建议吗? Spark会以任何方式帮助吗?

0 个答案:

没有答案