我尝试使用Spark导入CSV文件:
DataFrame df = sqlContext
.read()
.format("com.databricks.spark.csv")
.load("/home/1.csv");
但是我有这样的错误信息:
org.apache.hadoop.mapred.InvalidInputException:输入路径没有 存在:cfs://home/1.csv
所以我可以看到解决这个问题的两种方法:
1-如何将我的文件放入cfs://127.0.0.1/home/1.csv
或
2如何告诉load()实际查看/home/1.csv
感谢您的帮助