如何通过在Windows / Linux服务器上部署的Spark(使用Scala)访问安装目录上的文件(两者)

时间:2019-07-15 13:22:51

标签: scala apache-spark mount-point

我想使用spark从安装目录中读取excel文件,因为以下相同代码无法正常工作:

var df2 = spark.read.format("com.crealytics.spark.excel").option("useHeader", "true").option("treatEmptyValuesAsNulls", "true").option("inferSchema", "true").option("addColorColumns", "False").load(filePath)

如果我在上一行的顶部使用以下行,则它适用于本地系统:

val filePath = "file:///C:/Attachment/1550649546350.xlsx"

不确定放置在已安装目录中的excel文件的前缀是什么?

请帮助

0 个答案:

没有答案