使用pyspark

时间:2019-04-05 13:23:28

标签: pandas apache-spark pyspark base64 pyarrow

我想使用pyspark提取并处理base64格式的图像数据(3D阵列)。我将pyarrow与pandas_udf一起用作处理功能。在将base64字符串解析为pandas_udf函数时,首先将base64字符串转换为image。但是,在这一步,我收到了错误消息,因为“ TypeError:file()参数1必须是没有空字节的编码字符串,而不是str。”

我正在使用函数base64.b64decode(imgString)将base64字符串转换为图像。我正在使用python 2.7

...

avrodf=sqlContext.read.format("com.databricks.spark.avro").load("hdfs:///Raw_Images_201803182350.avro")
interested_cols = ["id","name","image_b64"]
indexed_avrodf = avrodf.select(interested_cols)
ctx_cols = ["id","name"]
result_sdf = indexed_avrodf.groupby(ctx_cols).apply(img_proc)

schema = StructType([
    StructField("id",StringType()),
    StructField("name",StringType()),
    StructField("image",StringType()),
    StructField("Proc_output",StringType())
])

@pandas_udf(schema, PandasUDFType.GROUPED_MAP)
def img_proc(df):
    df['Proc_output'] = df['image_b64'].apply(is_processed)
    return df

def is_processed(imgString):
    import cv2
    from PIL import Image, ImageDraw, ImageChops
    import base64

    wisimg = base64.b64decode(imgString)
    image = Image.open(wisimg)

    .....

    return processed_status

0 个答案:

没有答案