Spark配置出现内存不足错误

时间:2018-06-19 19:10:42

标签: scala apache-spark

集群设置-

Driver has 28gb
Workers have 56gb each (8 workers)

配置-

spark.memory.offHeap.enabled true
spark.driver.memory 20g
spark.memory.offHeap.size 16gb
spark.executor.memory 40g

我的工作-

//myFunc just takes a string s and does some transformations on it, they are very small strings, but there's about 10million to process.


//Out of memory failure
data.map(s => myFunc(s)).saveAsTextFile(outFile)

//works fine
data.map(s => myFunc(s))

此外,我从程序中解簇/删除了火花,它在具有56GB内存的单台服务器上运行良好(成功保存到文件中)。这表明这只是一个火花配置问题。我查看了https://spark.apache.org/docs/latest/configuration.html#memory-management,看来我目前需要的所有配置都需要更改才能正常工作。我还应该改变什么?

更新-

数据-

val fis: FileInputStream = new FileInputStream(new File(inputFile))
val bis: BufferedInputStream = new BufferedInputStream(fis);
val input: CompressorInputStream = new CompressorStreamFactory().createCompressorInputStream(bis);
br = new BufferedReader(new InputStreamReader(input))
val stringArray = br.lines().toArray()
val data = sc.parallelize(stringArray)

注意-即使效率非常低,这也不会引起任何内存问题。我无法使用spark读取它,因为它引发了一些EOF错误。

myFunc,因为它很复杂,所以我无法真正发布它的代码。但基本上,输入字符串是限定字符串,它执行了限定符替换,日期/时间规范化等操作。输出字符串的大小将与输入字符串大致相同。

此外,它对于较小的数据大小也可以正常工作,并且输出正确且大小与输入数据文件大致相同。

2 个答案:

答案 0 :(得分:0)

如果您提供有关MAP之前和之后程序中正在进行的操作的更多详细信息,将提供帮助。 除非触发了动作,否则第二条命令(仅Map)不会执行任何操作。您的文件可能未分区,驱动程序正在执行工作。下面应该强制将数据平均分配给工作人员,并在单个节点上保护OOM。但这会导致数据改组。

查看代码后更新解决方案,这样做会更好

val data = sc.parallelize(stringArray).repartition(8)
data.map(s => myFunc(s)).saveAsTextFile(outFile)

答案 1 :(得分:0)

您当前的解决方案没有利用火花。您正在将整个文件加载到内存中的数组中,然后使用sc.parallelize将其分发到RDD中。这会浪费大量的内存(即使没有火花),并且当然会导致大型文件的内存不足问题。

相反,使用sc.textFile(filePath)创建RDD。然后spark可以智能地分块读取和处理文件,因此一次只需要一小部分存储在内存中。您还可以通过这种方式利用并行性,因为spark可以并行读取和处理文件,而执行者却很多,而您需要拥有的文件执行器则更多,而无需在单个线程上读取单个文件中的整个文件机器。

假设myFunc一次只能查看一行,那么该程序的内存占用应该很小。