标签: apache-spark spark-dataframe phoenix
我有一张带有>的宽凤凰表159 cols和大约60mil recs,我通过火花和读取火花数据框访问,然后执行许多分析功能。最后,当我尝试使用" df.write"编写这个仅有7密耳的处理数据帧时,将其写入凤凰城的另一个表格。但它很慢。写这个数据需要58分钟。我的问题是,有没有更好的方法将数据从spark数据帧写入phoenix表? 请建议。