你好
我有一个带有3个Nifi实例的HDF群集,可以在HDP群集上运行作业(Hive / Spark)。通常,nifi会将所有信息写入本地计算机上可用的不同存储库。
我的问题是 - 在访问HDFS,Hive或Spark服务时,nifi是否会写入任何数据,出处信息或溢出HDP节点(例如HDP群集中的数据节点)?
由于
答案 0 :(得分:2)
Apache NiFi不会将HDFS用于其任何内部存储库/数据。 NiFi和Hadoop服务之间唯一的互动是通过与这些服务进行交互的特定处理器,如PutHDFS,PutHiveQL等。
可以使用SiteToSiteProvenanceReportingTask将源数据推出NiFi,然后存储在适当的任何位置(HDFS,HBase等)。