我做过一些关于Hadoop的研究,我仍然需要知道以下问题的答案:
谢谢。
答案 0 :(得分:0)
Hbase不是Hadoop的核心组件。要使用它,您需要在hadoop集群的顶部安装HBase。它依赖于HDFS / Zookeeper。它不依赖于MapReduce服务。
要从客户端使用它,它取决于您的用例。您有Java API / Rest API或shell访问权限。对于shell访问,您需要在本地计算机上安装HBase库。
Sqoop是一个用java实现的API /工具。您必须在客户端安装它。
Drill不仅仅是一个API。它更像是必须安装在节点上的包。它提供基于API的访问,因此可能不需要客户端安装。
Spark不是高级语言,而是取决于客户端的位置。 Web应用程序可以使用Spark API,而通过Shell,您将需要客户端库。