我正在尝试向kafka发送一个大型CSV。基本结构是读取CSV的一行并用标题压缩它。
a = dict(zip(header, line.split(",")
然后将其转换为带有以下内容的json:
message = json.dumps(a)
然后我使用kafka-python库发送消息
from kafka import SimpleProducer, KafkaClient
kafka = KafkaClient("localhost:9092")
producer = SimpleProducer(kafka)
producer.send_messages("topic", message)
使用PYSPARK 我已经轻松地从CSV文件中创建了一个RDD消息
sc = SparkContext()
text = sc.textFile("file.csv")
header = text.first().split(',')
def remove_header(itr_index, itr):
return iter(list(itr)[1:]) if itr_index == 0 else itr
noHeader = text.mapPartitionsWithIndex(remove_header)
messageRDD = noHeader.map(lambda x: json.dumps(dict(zip(header, x.split(","))
现在我想发送这些消息:我定义了一个函数
def sendkafka(message):
kafka = KafkaClient("localhost:9092")
producer = SimpleProducer(kafka)
return producer.send_messages('topic',message)
然后我创建一个新的RDD来发送消息
sentRDD = messageRDD.map(lambda x: kafkasend(x))
然后我调用sentRDD.count()
开始搅拌和发送消息
不幸的是,这很慢。它每秒发送1000条消息。这是一个10节点的集群,每个集群有4个cpus和8GB的内存。
相比之下,在1000万行csv上创建消息大约需要7秒。 〜约2gb
我认为问题在于我在函数中实例化了一个kafka生成器。然而,如果我不抱怨,即使我尝试在全球范围内定义它,生产者也不会存在。
也许有人可以说明如何处理这个问题。
谢谢,
答案 0 :(得分:7)
您可以为每个分区创建一个生产者,并使用mapPartitions
或foreachPartition
:
def sendkafka(messages):
kafka = KafkaClient("localhost:9092")
producer = SimpleProducer(kafka)
for message in messages:
yield producer.send_messages('topic', message)
sentRDD = messageRDD.mapPartitions(sendkafka)
如果上面单独帮助您可以尝试使用asynchronous producer进行扩展。
在Spark 2.x中,也可以使用Kafka数据源。您必须包含spark-sql-kafka
jar,匹配Spark和Scala版本(分别为2.2.0和2.11):
spark.jars.packages org.apache.spark:spark-sql-kafka-0-10_2.11:2.2.0
将数据转换为DataFrame
(如果已经DataFrame
):
messageDF = spark.createDataFrame(messageRDD, "string")
并使用DataFrameWriter
撰写:
(messageDF.write
.format("kafka")
.option("topic", topic_name)
.option("kafka.bootstrap.servers", bootstrap_servers)
.save())