我有一个流 df 名称为 dfnew2
。我正在尝试使用以下逻辑将其转换为列表,但出现一些错误:
org.apache.spark.sql.AnalysisException:带有流源的查询 必须使用 writeStream.start();;
此逻辑适用于批处理
for row in dfnew2.collect():
tmpList = row
id = tmpList[0]
MISISDN = tmpList[1]
df1 = spark.sql(f"select '{str(id)}' as id")
df2 = df1.withColumn(str(MISISDN), lit(1))
func(df2)
最好的问候