在spark shell中运行代码时,通常可以直接在shell中打印小输出/样本,而不是将输出放在文件中。
默认情况下,shell会在(相当小的)给定字符数后截断此类输出。有没有办法可以增加这个字符限制?我正在运行Spark 1.2
感谢您阅读
答案 0 :(得分:1)
你是什么意思"输出"?
如果您要打印RDD
使用take()
的 n 行:
myRDD.take(n).foreach(println)
根据Spark Programming Guide 1.2.0,此函数"返回包含数据集的前n个元素的数组。请注意,这当前不是并行执行的。相反,驱动程序计算所有元素。"