我正在使用spark 2.3.0和hadoop 2.9.1 我正在尝试使用spark加载位于hdfs中的CSV文件
scala> val dataframe = spark.read.format("com.databricks.spark.csv").option("header","true").schema(schema).load("hdfs://127.0.0.1:50075/filesHDFS/data.csv")
但是出现以下错误:
2018-11-14 11:47:58 WARN FileStreamSink:66 - Error while looking for metadata directory.
java.io.IOException: Failed on local exception: com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group tag did not match expected tag.; Host Details : local host is: "Desktop-Presario-CQ42-Notebook-PC/127.0.0.1"; destination host is: "localhost":50070;
答案 0 :(得分:0)
使用默认的FS名称代替使用127.0.0.1。您可以在core-site.xml文件中的fs.defaultFS属性下找到它
它应该可以解决您的问题。