标签: scala apache-spark rdd databricks spark-shell
我能够将其读为RDD
val rdd = sc.textFile("dbfs:/mnt/abc/XYZ.properties")
但是文件中的数据很少,我不想将其读取为rdd,因为它将数据拆分到不同的节点中
那么我们如何在不使用spark的情况下读取数据?