我正在编写一个结构化的流应用程序,该应用程序处理来自Kafka源的数据。我能够将最终处理的数据帧写入控制台,但是我正在努力将该数据帧写入mysql db。
在通过pyspark进行结构化流式传输时,是否可以将数据帧写入mysql?
我的应用程序的草图如下:
df = spark \
.readStream \
.format('kafka') \
.option('kafka.bootstrap.servers', brokers) \
.option(subscribe_type, topic) \
.option('includeTimestamp', 'true') \
.load()
query = df \
.writeStream \
.format('console') \
.option('truncate', 'false') \
.trigger(processingTime='5 seconds') \
.start()
您能给我一个例子来做第4步吗?
非常感谢。