使用Spark / Scala从HDFS读取CSV

时间:2018-11-14 19:38:10

标签: scala apache-spark hadoop hdfs

我正在使用spark 2.3.0和hadoop 2.9.1 我正在尝试使用spark加载位于hdfs中的CSV文件

scala> val dataframe = spark.read.format("com.databricks.spark.csv").option("header","true").schema(schema).load("hdfs://127.0.0.1:50075/filesHDFS/data.csv")

但是出现以下错误:

2018-11-14 11:47:58 WARN  FileStreamSink:66 - Error while looking for metadata directory.
java.io.IOException: Failed on local exception: com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group tag did not match expected tag.; Host Details : local host is: "Desktop-Presario-CQ42-Notebook-PC/127.0.0.1"; destination host is: "localhost":50070;

1 个答案:

答案 0 :(得分:0)

使用默认的FS名称代替使用127.0.0.1。您可以在core-site.xml文件中的fs.defaultFS属性下找到它

它应该可以解决您的问题。