将Spark 2 DataFrame写入s3时指定加密

时间:2016-10-14 08:10:10

标签: apache-spark amazon-s3

有人在将Spark数据帧写入S3时知道如何指定服务器端加密吗?具体来说,代码行如下所示:

df.write.mode("append").parquet(file_path)

如何指定使用AES256算法加密文件?我应该在创建SparkSession时设置属性吗?如果是,那么应该设置什么配置值?

0 个答案:

没有答案