标签: apache-spark distributed-computing bigdata
对于Spark作业,其输入和输出都是HDFS。但是,我想知道,在执行Spark作业期间,是否有任何需要写入本地文件系统或从本地文件系统读取的内容?
答案 0 :(得分:0)
您只需要在保存功能中添加如下路径:file:///path/you/want
file:///path/you/want