如何在Spark的Slaves内存中创建RDD?

时间:2018-01-27 23:27:11

标签: java hadoop apache-spark

我知道这可能听起来很愚蠢,但有没有办法从目前正在群集中的奴隶的文件中创建一个RDD'记忆?我知道要创建一个RDD,我们必须指定存储文件的路径/ hdfs路径。但我很好奇,如果我可以在Java applications之间复制对象并将对象直接放入奴隶'同名的内存,有没有办法用这些文件创建RDD和/或以分布式方式工作?提前谢谢!

1 个答案:

答案 0 :(得分:1)

简短的回答是否定的。

"从站"根本不参与计算。只负责资源管理部分。

另一方面,工人本身并不存在。与应用程序绑定,因此没有"当前状态"在它之外。

你可以做的是创建虚拟RDD并在调用函数时加载一些对象。但是,这绝不应该与特定的物理主机绑定。虽然Spark对提示首选位置有一些支持,但无法保证在特定计算机上处​​理特定任务,或者即使在同一应用程序中,分配也会在不同评估中保持不变。