从pyspark中的json文件中使用架构读取固定宽度的文件

时间:2018-12-17 14:57:28

标签: python apache-spark pyspark pyspark-sql

我有如下固定宽度的文件

JSON

以及指定架构的相应{"Column":"id","From":"1","To":"3"} {"Column":"date","From":"4","To":"8"} {"Column":"name","From":"12","To":"3"} {"Column":"salary","From":"15","To":"5"} 文件:

SchemaFile = spark.read\
    .format("json")\
    .option("header","true")\
    .json('C:\Temp\schemaFile\schema.json')

SchemaFile.show()
#+------+----+---+
#|Column|From| To|
#+------+----+---+
#|    id|   1|  3|
#|  date|   4|  8|
#|  name|  12|  3|
#|salary|  15|  5|
#+------+----+---+

我使用以下方法将模式文件读入DataFrame:

File = spark.read\
    .format("csv")\
    .option("header","false")\
    .load("C:\Temp\samplefile.txt")

File.show()
#+-------------------+
#|                _c0|
#+-------------------+
#|00120181120xyz12341|
#|00220180203abc56792|
#|00320181203pqr25483|
#+-------------------+

同样,我将固定宽度文件解析为pyspark DataFrame,如下所示:

from pyspark.sql.functions import substring
data = File.select(
    substring(File._c0,1,3).alias('id'),
    substring(File._c0,4,8).alias('date'),
    substring(File._c0,12,3).alias('name'),
    substring(File._c0,15,5).alias('salary')
)

data.show()
#+---+--------+----+------+
#| id|    date|name|salary|
#+---+--------+----+------+
#|001|20181120| xyz| 12341|
#|002|20180203| abc| 56792|
#|003|20181203| pqr| 25483|
#+---+--------+----+------+

显然,我可以对每列的位置和长度的值进行硬编码以获得所需的输出:

SchemaFile

但是如何使用inputArray.every(x=>x%n) DataFrame为行指定宽度和列名,以便可以在运行时动态应用模式(无需硬编码)?

1 个答案:

答案 0 :(得分:1)

最简单的操作是collect的内容SchemaFile并遍历其行以提取所需的数据。

首先将模式文件作为JSON读取到DataFrame中。然后调用collect并将每一行映射到字典:

sfDict = map(lambda x: x.asDict(), SchemaFile.collect())
print(sfDict)
#[{'Column': u'id', 'From': u'1', 'To': u'3'},
# {'Column': u'date', 'From': u'4', 'To': u'8'},
# {'Column': u'name', 'From': u'12', 'To': u'3'},
# {'Column': u'salary', 'From': u'15', 'To': u'5'}]

现在,您可以遍历sfDict中的行,并使用这些值对列进行子串化:

from pyspark.sql.functions import substring
File.select(
    *[
        substring(
            str='_c0',
            pos=int(row['From']),
            len=int(row['To'])
        ).alias(row['Column']) 
        for row in sfDict
    ]
).show()
#+---+--------+----+------+
#| id|    date|name|salary|
#+---+--------+----+------+
#|001|20181120| xyz| 12341|
#|002|20180203| abc| 56792|
#|003|20181203| pqr| 25483|
#+---+--------+----+------+

请注意,我们必须将ToFrom转换为整数,因为它们在json文件中被指定为字符串。