所以我有一个要求,我要在Spark数据帧中以字符串和int的形式获取混合模式输入。我正在使用org.zuinnote.spark.office.exce将这个数据框写入excel。当文件正确生成但当我在excel中打开此文件时,出现以下错误
这是我拥有的测试代码
val a =spark.read.csv("C://spark-hadoopoffice-ds-master//test.csv")
a.printSchema()
val b =a.withColumn("test", col("_c0").cast("string"))
b.printSchema()
b.write
.format("org.zuinnote.spark.office.excel")
.option("write.locale.bcp47", "us")
.option("owerwrite", "true")
.save("C://spark-hadoopoffice-ds-master//test1.xlsx")
数据框中的数据如下所示
+----------+
| _c0|
+----------+
|testcolumn|
| 1|
| 2|
| 3|
| v|
| a|
| j|
| 3|
| 5|
| 7|
+----------+