我正在尝试实现一个使用自定义接收器从SQS读取消息的Streaming作业。每条消息都包含对S3文件的单个引用,然后我将其读取,解析并存储为ORC。
这是我到目前为止的代码:
val sc = new SparkContext(conf)
val streamContext = new StreamingContext(sc, Seconds(5))
val sqs = streamContext.receiverStream(new SQSReceiver("events-elb")
.credentials("accessKey", "secretKey")
.at(Regions.US_EAST_1)
.withTimeout(5))
val s3File = sqs.map(messages => {
val sqsMsg: JsValue = Json.parse(messages)
val s3Key = "s3://" +
Json.stringify(sqsMsg("Records")(0)("s3")("bucket")("name")).replace("\"", "") + "/" +
Json.stringify(sqsMsg("Records")(0)("s3")("object")("key")).replace("\"", "")
val rawLogs = sc.textFile(s3Key)
rawLogs
}).saveAsTextFiles("/tmp/output")
不幸的是,这失败并出现以下错误:
Caused by: java.io.NotSerializableException: org.apache.spark.SparkContext
Serialization stack:
- object not serializable (class: org.apache.spark.SparkContext, value: org.apache.spark.SparkContext@52fc5eb1)
- field (class: SparrowOrc$$anonfun$1, name: sc$1, type: class org.apache.spark.SparkContext)
- object (class SparrowOrc$$anonfun$1, <function1>)
at org.apache.spark.serializer.SerializationDebugger$.improveException(SerializationDebugger.scala:40)
at org.apache.spark.serializer.JavaSerializationStream.writeObject(JavaSerializer.scala:46)
at org.apache.spark.serializer.JavaSerializerInstance.serialize(JavaSerializer.scala:100)
at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:295)
这是不正确的使用sc.textFile
的方法吗?如果是这样,我可以使用什么方法将从SQS收到的每个文件路径转发到文件阅读器进行处理?
FWIW,val s3File
最终属于mappedDStream
类型。
有关更多背景信息,我将此作为接收方使用:https://github.com/imapi/spark-sqs-receiver。
答案 0 :(得分:1)
实际上,我们不能在sparkContext
操作中使用map
,因为在阶段转换的闭包在执行程序中运行,其中没有SparkContext
定义
解决这个问题的方法是将流程拆分为两个:首先,我们使用现有的map
计算文件,但要在textFile
操作中使用transform
:
val s3Keys = sqs.map(messages => {
val sqsMsg: JsValue = Json.parse(messages)
val s3Key = "s3://" +
Json.stringify(sqsMsg("Records")(0)("s3")("bucket")("name")).replace("\"", "") + "/" +
Json.stringify(sqsMsg("Records")(0)("s3")("object")("key")).replace("\"", "")
}
val files DStream = s3Keys.transform{keys =>
val fileKeys= keys.collect()
Val files = fileKeys.map(f=>
sparkContext.textFile(f))
sparkContext.union(files)
}
filesDStream.saveAsTextFiles(..)
答案 1 :(得分:0)
没有。这是不对的,因为SparkContext是:
我非常感谢Spark开发者,他们照顾它,所以我们不会忘记它。
不允许这样使用的原因是SparkContext
存在于驱动程序上(或者可以说构成驱动程序)并且负责编排任务(用于Spark作业)。
执行者很愚蠢,因此只知道如何运行任务。
Spark不会像这样工作,越早接受设计决策就越能熟练地开发Spark应用程序。
如果是这样,我可以用什么方法将从SQS收到的每个文件路径转发到文件阅读器进行处理?
我无法回答,因为我从未开发过自定义接收器。