我有一个使用Spark似乎相对简单的用例,但似乎无法找到一个确定的方法来做到这一点。
我有一个数据集,其中包含各种用户的时间序列数据。我所要做的就是:
我尝试使用以下代码段,但最终得到了令人惊讶的结果。我最终得到每个用户ID 1个csv文件和一些用户'时间序列数据最终得到排序,但很多其他用户'未分类。
# repr(ds) = DataFrame[userId: string, timestamp: string, c1: float, c2: float, c3: float, ...]
ds = load_dataset(user_dataset_path)
ds.repartition("userId")
.sortWithinPartitions("timestamp")
.write
.partitionBy("userId")
.option("header", "true")
.csv(output_path)
我不清楚为什么会发生这种情况,而且我不完全确定如何做到这一点。我也不确定这是否可能是Spark中的一个错误。
我使用Spark 2.0.2和Python 2.7.12。任何建议都将非常感谢!
答案 0 :(得分:1)
以下代码对我有用(在Scala中显示,但在Python中类似)。
我为每个用户名一个文件,其中输出文件中的行按时间戳记值排序。
testDF
.select( $"username", $"timestamp", $"activity" )
.repartition(col("username"))
.sortWithinPartitions(col("username"),col("timestamp")) // <-- both here
.write
.partitionBy("username")
.mode(SaveMode.Overwrite)
.option("header", "true")
.option("delimiter", ",")
.csv(folder + "/useractivity")
导入操作是将 both 和用户名和时间戳列都作为 sortWithinPartitions 的参数。
以下是其中一个输出文件的外观(我使用一个简单的整数作为时间戳):
timestamp,activity
345,login
402,upload
515,download
600,logout