使用AWS Glue Jobs将缺少的列值设置为默认值

时间:2019-02-26 10:24:27

标签: amazon-web-services pyspark apache-zeppelin aws-glue

我正在尝试使用Glue从dynamodb提取数据集到s3。在此过程中,我想选择一些列,然后为所有和所有缺少值的行/列设置默认值。

我目前正在尝试使用“地图”功能,但似乎没有调用我的方法。

这是我所拥有的:

def SetDefaults(rec):
    print("checking record")
    for col in rec:
        if not rec[col]:
            rec[col] = "missing"
    return rec

## Read raw(source) data from target DynamoDB 
raw_data_dyf = glueContext.create_dynamic_frame_from_options("dynamodb", {"dynamodb.input.tableName" : my_dynamodb_table, "dynamodb.throughput.read.percent" : "0.50" } )

## Get the necessary columns  
selected_data_dyf = ApplyMapping.apply(frame = raw_data_dyf, mappings = mappingList)

## get rid of null values
mapped_dyF = Map.apply(frame=selected_data_dyf, f=SetDefaults)

## write it all out as a csv
datasink = glueContext.write_dynamic_frame.from_options(frame=mapped_dyF , connection_type="s3", connection_options={ "path": my_train_data }, format="csv", format_options = {"writeHeader": False , "quoteChar": "-1" })

我的ApplyMapping.apply通话做对了,其中mappingList由以下各项定义:

mappingList.append(('gsaid', 'bigint', 'gsaid', 'bigint'))
mappingList.append(('objectid', 'bigint', 'objectid', 'bigint'))
mappingList.append(('objecttype', 'bigint', 'objecttype', 'bigint'))

我没有任何错误,一切顺利完成。我的数据全部在s3中,但是仍然有许多空值,而不是我想要的“缺失”条目。

“检查记录”打印语句永远不会打印出来。我在这里想念什么?

1 个答案:

答案 0 :(得分:0)

替代解决方案:

  1. 将DynamicFrame转换为Spark DataFrame
  2. 使用DataFrame的fillna()方法填充空值
  3. 将DataFrame转换回DynamicFrame