将spark数据框中每个分区的记录写入xml文件

时间:2017-10-10 10:16:53

标签: scala spark-dataframe apache-zeppelin spark-csv apache-spark-xml

我必须在spark数据框中的每个分区的文件中进行记录计数,然后我必须将输出写入XML文件。

这是我的数据框。

dfMainOutputFinalWithoutNull.coalesce(1).write.partitionBy("DataPartition","StatementTypeCode")
  .format("csv")
  .option("nullValue", "")
  .option("header", "true")
  .option("codec", "gzip")
  .save("s3://trfsdisu/SPARK/FinancialLineItem/output")

现在我必须计算每个分区中每个文件的记录数,然后将输出写入XML文件。

这就是我尝试这样做的方式。

val count =dfMainOutputFinalWithoutNull.groupBy("DataPartition","StatementTypeCode").count

  count.write.format("com.databricks.spark.xml")
  .option("rootTag", "items")
  .option("rowTag", "item")
  .save("s3://trfsdisu/SPARK/FinancialLineItem/Descr")

我能够打印每个分区的总记录数并打印出来,但是当我尝试创建xml文件时,我的误差低于此值。

java.lang.ClassNotFoundException: Failed to find data source: com.databricks.spark.xml. Please find packages at http://spark.apache.org/third-party-projects.html

我正在使用Spark 2.2.0, Zeppelin 0.7.2

所以我必须导入com.databricks.spark.xml这个,但是为什么因为在csv文件的情况下如果我没有导入com.databricks.spark.csv

另外,我可以使用缓存dfMainOutputFinalWithoutNull,因为我将使用它两次来编写其数据,然后计算其分区记录,然后写入xml文件?

我添加了这种依赖

  <!-- https://mvnrepository.com/artifact/com.databricks/spark-xml_2.10 -->
<dependency>
    <groupId>com.databricks</groupId>
    <artifactId>spark-xml_2.10</artifactId>
    <version>0.2.0</version>
</dependency>

重新启动翻译。然后我收到以下错误。

java.lang.NullPointerException
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38)
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:33)
    at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext_2(SparkInterpreter.java:391)
    at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext(SparkInterpreter.java:380)
    at org.apache.zeppelin.spark.SparkInterpreter.getSparkContext(SparkInterpreter.java:146)

1 个答案:

答案 0 :(得分:0)

我会回答我的问题

所以我在zepplin中添加了以下依赖

Scala 2.11

groupId: com.databricks
artifactId: spark-xml_2.11
version: 0.4.1

在zepplin

中添加以下内容
com.databricks:spark-xml_2.11:0.4.1

然后我就能创建文件了。