我对熊猫有以下脚本,但是我想使用spark将相同的逻辑应用于scala。
# add a column containing previous timestamp
toy_data = pd.concat([toy_data,
toy_data.groupby('user_id').transform(lambda x:x.shift(1))]
,axis=1)
如何在Scala中重新创建脚本?