在Apache Spark中设置S3连接池大小

时间:2018-02-13 04:09:15

标签: apache-spark amazon-s3

我正在使用我的Spark 2.1.0群集上的orginalText; ngOnInit () { $('#changeText').click(() => { this.orginalText = $('#content').html(); $('#content').text("This is text changed using jquery"); }); $('#changeText2').click(() => { $('#content').html(this.orginalText); }); } 调用批量加载,这似乎抛出异常“超时等待来自池的连接”。

我的理解是默认连接池大小为50是不够的,必须增加(1)。使用DataFrame的write.parquet调用时,配置最大连接池大小的最佳位置是什么?

(1):https://forums.aws.amazon.com/thread.jspa?threadID=81287

0 个答案:

没有答案