我正在使用应用程序,该应用程序将一些文件上传到s3存储桶,稍后,它从s3存储桶读取文件并将其推送到我的数据库 。
我正在使用 Flink 1.4.2 和 fs.s3a API 从s3存储桶读取和写入文件。
将文件上传到s3存储桶可以正常工作,没有任何问题,但是当我的应用程序从s3读取那些上传的文件的第二阶段开始时,我的应用程序将引发以下错误:
Caused by: java.io.InterruptedIOException: Reopen at position 0 on s3a://myfilepath/a/b/d/4: org.apache.flink.fs.s3hadoop.shaded.com.amazonaws.SdkClientException: Unable to execute HTTP request: Timeout waiting for connection from pool
at org.apache.flink.fs.s3hadoop.shaded.org.apache.hadoop.fs.s3a.S3AUtils.translateException(S3AUtils.java:125)
at org.apache.flink.fs.s3hadoop.shaded.org.apache.hadoop.fs.s3a.S3AInputStream.reopen(S3AInputStream.java:155)
at org.apache.flink.fs.s3hadoop.shaded.org.apache.hadoop.fs.s3a.S3AInputStream.lazySeek(S3AInputStream.java:281)
at org.apache.flink.fs.s3hadoop.shaded.org.apache.hadoop.fs.s3a.S3AInputStream.read(S3AInputStream.java:364)
at java.io.DataInputStream.read(DataInputStream.java:149)
at org.apache.flink.fs.s3hadoop.shaded.org.apache.flink.runtime.fs.hdfs.HadoopDataInputStream.read(HadoopDataInputStream.java:94)
at org.apache.flink.api.common.io.DelimitedInputFormat.fillBuffer(DelimitedInputFormat.java:702)
at org.apache.flink.api.common.io.DelimitedInputFormat.open(DelimitedInputFormat.java:490)
at org.apache.flink.api.common.io.GenericCsvInputFormat.open(GenericCsvInputFormat.java:301)
at org.apache.flink.api.java.io.CsvInputFormat.open(CsvInputFormat.java:53)
at org.apache.flink.api.java.io.PojoCsvInputFormat.open(PojoCsvInputFormat.java:160)
at org.apache.flink.api.java.io.PojoCsvInputFormat.open(PojoCsvInputFormat.java:37)
at org.apache.flink.runtime.operators.DataSourceTask.invoke(DataSourceTask.java:145)
at org.apache.flink.runtime.taskmanager.Task.run(Task.java:718)
at java.lang.Thread.run(Thread.java:748)
我可以通过增加s3a API的最大连接数来控制此错误。
截至目前,我在s3存储桶中大约有 1000个文件,该文件由我的应用程序推送并拉入在s3存储桶中,我的最大连接数是3000 。我正在使用Flink的并行性从s3存储桶中上传/下载这些文件。我的任务管理器数为14 。 这是间歇性故障,在这种情况下,我也有成功的案例。
我的查询是
谢谢 提前
答案 0 :(得分:0)
一些评论,基于我通过Flink(批处理)工作流处理来自S3的许多文件的经验:
fs.s3.maxConnections
,与纯Hadoop配置不同。