我是Spark的新手,也不怎么问这个问题(使用哪些术语等),所以这是我在概念上试图实现的目标的图片:
我有很多小的,单独的.txt“分类帐”文件(例如,带有时戳和属性值的行分隔文件)。
我想:
将每个“分类帐”文件读取到单独的数据帧中(读取:不合并为一个大数据帧);
对每个单独的数据帧执行一些基本计算,从而导致一行新的数据值;然后
将所有单独的结果行合并到最终对象中,并将其保存在以行分隔的文件中的磁盘中。
似乎(当使用谷歌搜索相关术语时)我发现的几乎每个答案都是关于将多个文件加载到单个RDD或DataFrame中,但是我确实找到了以下Scala代码:
val data = sc.wholeTextFiles("HDFS_PATH")
val files = data.map { case (filename, content) => filename}
def doSomething(file: String) = {
println (file);
// your logic of processing a single file comes here
val logData = sc.textFile(file);
val numAs = logData.filter(line => line.contains("a")).count();
println("Lines with a: %s".format(numAs));
// save rdd of single file processed data to hdfs comes here
}
files.collect.foreach( filename => {
doSomething(filename)
})
...但是:
A。我不知道这是否可以并行执行读取/分析操作,并且
B。我认为它不能将结果合并为一个对象。
任何方向或建议都将不胜感激!
更新
似乎我要执行的操作(在多个文件上并行运行脚本,然后合并结果)可能需要类似thread pools(?)的内容。
为清楚起见,这是我要对通过读取“分类帐”文件创建的DataFrame执行的计算示例:
from dateutil.relativedelta import relativedelta
from datetime import datetime
from pyspark.sql.functions import to_timestamp
# Read "ledger file"
df = spark.read.json("/path/to/ledger-filename.txt")
# Convert string ==> timestamp & sort
df = (df.withColumn("timestamp", to_timestamp(df.timestamp, 'yyyy-MM-dd HH:mm:ss'))).sort('timestamp')
columns_with_age = ("location", "status")
columns_without_age = ("wh_id")
# Get the most-recent values (from the last row of the df)
row_count = df.count()
last_row = df.collect()[row_count-1]
# Create an empty "final row" dictionary
final_row = {}
# For each column for which we want to calculate an age value ...
for c in columns_with_age:
# Initialize loop values
target_value = last_row.__getitem__(c)
final_row[c] = target_value
timestamp_at_lookback = last_row.__getitem__("timestamp")
look_back = 1
different = False
while not different:
previous_row = df.collect()[row_count - 1 - look_back]
if previous_row.__getitem__(c) == target_value:
timestamp_at_lookback = previous_row.__getitem__("timestamp")
look_back += 1
else:
different = True
# At this point, a difference has been found, so calculate the age
final_row["days_in_{}".format(c)] = relativedelta(datetime.now(), timestamp_at_lookback).days
因此,这样的分类帐:
+---------+------+-------------------+-----+
| location|status| timestamp|wh_id|
+---------+------+-------------------+-----+
| PUTAWAY| I|2019-04-01 03:14:00| 20|
|PICKABLE1| X|2019-04-01 04:24:00| 20|
|PICKABLE2| X|2019-04-01 05:33:00| 20|
|PICKABLE2| A|2019-04-01 06:42:00| 20|
| HOTPICK| A|2019-04-10 05:51:00| 20|
| ICEXCEPT| A|2019-04-10 07:04:00| 20|
| ICEXCEPT| X|2019-04-11 09:28:00| 20|
+---------+------+-------------------+-----+
可以减少到(假设计算是在2019-04-14进行的):
{ '_id': 'ledger-filename', 'location': 'ICEXCEPT', 'days_in_location': 4, 'status': 'X', 'days_in_status': 3, 'wh_id': 20 }
答案 0 :(得分:0)
不建议使用wholeTextFiles
,因为它将立即将整个文件加载到内存中。如果您真的要为每个文件创建一个单独的数据框,则可以简单地使用完整路径而不是目录。但是,不建议这样做,这很可能导致不良的资源利用。相反,请考虑使用input_file_path
https://spark.apache.org/docs/2.4.0/api/java/org/apache/spark/sql/functions.html#input_file_name--
例如:
spark
.read
.textFile("path/to/files")
.withColumn("file", input_file_name())
.filter($"value" like "%a%")
.groupBy($"file")
.agg(count($"value"))
.show(10, false)
+----------------------------+------------+
|file |count(value)|
+----------------------------+------------+
|path/to/files/1.txt |2 |
|path/to/files/2.txt |4 |
+----------------------------+------------+
因此文件可以单独处理,然后再组合。
答案 1 :(得分:0)
您可以在hdfs中获取文件路径
import org.apache.hadoop.fs.{FileSystem,Path}
val files=FileSystem.get( sc.hadoopConfiguration ).listStatus( new Path(your_path)).map( x => x.getPath ).map(x=> "hdfs://"+x.toUri().getRawPath())
为每个路径创建唯一的数据框
val arr_df= files.map(spark.read.format("csv").option("delimeter", ",").option("header", true).load(_))
在合并到一个数据帧之前应用过滤器或任何变换
val df= arr_df.map(x=> x.where(your_filter)).reduce(_ union _)