我正在尝试使用Java构建ETL工具。 ETL工具用于对大量数据(关系型和其他类型)进行批量读取,写入和更新操作。我发现很难选择正确的框架/工具来完成这项任务。
简化的典型用例:
我的选择:
使用纯JDBC。使用JDBC构建更高级别的API,以完成与数据库连接,读取和写入数据的任务。
使用Spring或Hibernate等框架。我从未使用过这些框架。我认为Hibernate是出于ORM的目的,但我的不是ORM的要求。 Spring可能会有一些批量处理的东西,但是我想知道学习它的努力是否实际上比我自己的选项1要少。
任何其他选项/框架?
上面哪一个最适合我?
考虑
最近,我做了很多谷歌搜索,但如果你能给我一些“第一手”意见,我将不胜感激。
答案 0 :(得分:3)
根据您的使用情况,我建议Spring Batch。它易于学习和实施。在高级别,它包含以下3个重要组成部分。
答案 1 :(得分:3)
感谢所有与Spring Batch相关的更新。然而,经过一些研究,我决定使用EasyBatch。来自http://www.easybatch.org,
Easy Batch是一个旨在简化批处理的框架 Java的。它的主要目标是处理样板代码 繁琐的任务,如阅读,过滤,解析和验证输入 数据,让您专注于批处理业务 逻辑。
答案 2 :(得分:0)
尝试Data Pipeline,一个用于Java的轻量级ETL引擎。它易于使用。