标签: scala apache-spark
我有一个Dataset的{{1}}:
Dataset
Event case class
我可以对其进行一些操作,例如val ds: Dataset[Event] = df.as[Event] (count)。
val ds: Dataset[Event] = df.as[Event]
count
但是当我尝试打印它时(我知道我可以使用println(ds.count())),如下所示:
println(ds.count())
ds.show()
我得到ds.take(10).foreach(e => println(e)) 。
ds.take(10).foreach(e => println(e))
这行代码有什么问题?