从foreach内部调用时,Pyspark保存不起作用

时间:2019-06-27 03:08:56

标签: pyspark azure-databricks

我正在建立一个管道,该管道从Azure EventHub接收消息并将其保存到数据块增量表中。

我对静态数据的所有测试都进行得很好,请参见下面的代码:

body = 'A|B|C|D\n"False"|"253435564"|"14"|"2019-06-25 04:56:21.713"\n"True"|"253435564"|"13"|"2019-06-25 04:56:21.713"\n"
tableLocation = "/delta/tables/myTableName"

spark = SparkSession.builder.appName("CSV converter").getOrCreate()    
csvData = spark.sparkContext.parallelize(body.split('\n'))

df = spark.read \
.option("header", True) \
.option("delimiter","|") \
.option("quote", "\"") \
.option("nullValue", "\\N") \
.option("inferShema", "true") \
.option("mergeSchema", "true") \
.csv(csvData)

df.write.format("delta").mode("append").save(tableLocation)

但是,就我而言,每个eventhub消息都是CSV字符串,并且它们可能来自许多来源。因此,每条消息都必须单独处理,因为每条消息最终可能保存在不同的增量表中。

当我尝试在foreach语句中执行相同的代码时,它不起作用。日志中没有显示任何错误,我找不到任何保存的表。

所以也许在调用foreach时我做错了。请参见下面的代码:

def SaveData(row):
   ...
   The same code above

dfEventHubCSV.rdd.foreach(SaveData)

我试图在流上下文中执行此操作,但可悲的是我遇到了同样的问题。

foreach中的什么使它的行为有所不同?

在我正在运行的完整代码下面:

import pyspark.sql.types as t
from pyspark.sql import SQLContext

--row contains the fields Body and SdIds
--Body: CSV string
--SdIds: A string ID 
def SaveData(row):

  --Each row data that is going to be added to different tables
  rowInfo = GetDestinationTableData(row['SdIds']).collect()  
  table = rowInfo[0][4]
  schema = rowInfo[0][3]
  database = rowInfo[0][2]     
  body = row['Body']

  tableLocation = "/delta/" + database + '/' + schema + '/' + table
  checkpointLocation = "/delta/" + database + '/' + schema + "/_checkpoints/" + table

  spark = SparkSession.builder.appName("CSV").getOrCreate()    
  csvData = spark.sparkContext.parallelize(body.split('\n'))

  df = spark.read \
  .option("header", True) \
  .option("delimiter","|") \
  .option("quote", "\"") \
  .option("nullValue", "\\N") \
  .option("inferShema", "true") \
  .option("mergeSchema", "true") \
  .csv(csvData)

  df.write.format("delta").mode("append").save(tableLocation)

dfEventHubCSV.rdd.foreach(SaveData)

1 个答案:

答案 0 :(得分:0)

总之,一如既往,这很简单,但我看不出有任何问题。

基本上,当您执行foreach时,要保存的数据帧是在循环内部构建的。工作程序与驱动程序不同,不会在保存时自动设置“ / dbfs /”路径,因此,如果不手动添加“ / dbfs /”,它将在工作程序中本地保存数据,并且永远不会找到保存的数据。

这就是为什么我的循环无法正常工作的原因。