斯卡拉& Spark - ArrayBuffer不会追加

时间:2015-06-22 20:26:39

标签: scala collections apache-spark tuples arraybuffer

我是Scala和Apache Spark的新手,并且已经尝试了一些在线示例。

我使用scala.collection.mutable.ArrayBuffer来存储表单(Int,Array [String])的元组列表。我正在创建一个ArrayBuffer,然后逐行解析文本文件,并将每行所需的数据附加到ArrayBuffer。

代码没有编译错误。但是当我在我附加它的块之外访问ArrayBuffer时,我无法获取内容并且ArrayBuffer始终为空。

我的代码在下面 -

    Schema::table('articulos', function($table) {
        $table->foreign('categoria_id')->references('id')->on('categorias')->onDelete('cascade');
        $table->foreign('creador_id')->references('id')->on('users');
    });

有人可以指出为什么这段代码不起作用。

非常感谢任何帮助。

1 个答案:

答案 0 :(得分:2)

我认为objectA class allSelectors spark。在这种情况下,本地SparkContext未更新,仅将其副本作为闭包发送到spark,这并不奇怪。如果您需要list中的可变值,则应使用Accumulator