我正在使用df.write("csv")
在Apache Spark中编写我的值集。
默认情况下,它会写入如下值:
1,abcded,"qwe,rr"
即在值内有逗号时用双引号括起来。
但是,我想要像qwe\\,rr
那样转义逗号而不是用双引号括起来。
关于如何实现这一点的任何想法?
答案 0 :(得分:0)
如果您使用databricks中的spark-csv,则可以将case $http_status in
200) echo "Credentials valid";;
301|302) echo "API endpoint changed";;
401) echo "Credentials INVALID";;
5*) echo "BitBucket Internal server error";;
*) echo "Unexpected HTTP status code: $http_status";;
esac
属性设置为quoteMode
,如下所示。
None
答案 1 :(得分:0)
我能够这样做:
import org.apache.spark.sql.functions._
val updatedDf = df.withColumn(
"<column-name>", regexp_replace(col("<column-name>"), ",", "\\\\\\\\,"))