如何通过Spark流媒体和Apache水槽将Kafka主题加载到HDFS

时间:2017-08-02 20:06:24

标签: hadoop apache-spark apache-kafka spark-streaming flume

我正在学习卡夫卡阶段。 使用cloudera env。

我在Kafka创建了一个主题:

/opt/bitnami/kafka/bin/kafka-topics.sh --create --zookeeper 35.195.113.105:2181 --replication-factor 1 --partitions 1 --topic airports

制片:

/opt/bitnami/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic airports </home/bitnami/airports.csv

我需要使用Spark Streaming和Flume在HDFS中复制这个主题。

有关如何执行此操作的任何想法或建议。

此致 SAURABH

1 个答案:

答案 0 :(得分:0)

首先阅读此文档http://spark.apache.org/docs/latest/streaming-kafka-0-10-integration.html。您将了解如何在kafka中使用comsumer消息。然后在foreachRDD函数中添加HDFS客户端代码,将消息写入HDFS。