如何将hadoop数据存储到oracle中

时间:2014-05-13 11:17:28

标签: oracle hadoop mapreduce hive sqoop

我的决赛桌位于Hive(HDFS)

1)我累了“Sqoop” 2)sql loader 3)oraoop

当我们将数据放入sql数据库时,所有人的表现都非常令人沮丧

必须导入1 TB文件,1 GB接管5节点集群中的所有8 Min(1297372920行),并使用sqoop,oraoop,sql loader

1 个答案:

答案 0 :(得分:0)

您的Sqoop导出到Oracle的速度将取决于各种因素,包括数据大小/特征,网络性能以及最重要的目标数据库服务器配置。由于目前发布的Sqoop不允许使用" direct"在将数据导出到Oracle时,此用例中可用的优化是有限的。我强烈建议您查看文档(http://sqoop.apache.org/docs/1.4.2/SqoopUserGuide.html#_literal_sqoop_export_literal),并尽可能让自己进入可以使用增量导入/导出的位置,因为您对使用1tb的延迟感到不满意数据集。也许最初满载您的整个所需数据集,并找到一种只从那里逐步更新的方法。