使用org.zuinnote.spark.office.excel将数据帧写出为​​exle,错误提示单元格中的数字被格式化为文本

时间:2018-07-11 14:34:04

标签: excel scala apache-spark dataframe

所以我有一个要求,我要在Spark数据帧中以字符串和int的形式获取混合模式输入。我正在使用org.zuinnote.spark.office.exce将这个数据框写入excel。当文件正确生成但当我在excel中打开此文件时,出现以下错误 enter image description here

这是我拥有的测试代码

    val a =spark.read.csv("C://spark-hadoopoffice-ds-master//test.csv")
a.printSchema()
val b =a.withColumn("test", col("_c0").cast("string"))
b.printSchema()   
b.write
.format("org.zuinnote.spark.office.excel")
.option("write.locale.bcp47", "us")
.option("owerwrite", "true")
.save("C://spark-hadoopoffice-ds-master//test1.xlsx")

数据框中的数据如下所示

+----------+
|       _c0|
+----------+
|testcolumn|
|         1|
|         2|
|         3|
|         v|
|         a|
|         j|
|         3|
|         5|
|         7|
+----------+

0 个答案:

没有答案