我是Scala和Apache Spark的新手,并且已经尝试了一些在线示例。
我使用scala.collection.mutable.ArrayBuffer来存储表单(Int,Array [String])的元组列表。我正在创建一个ArrayBuffer,然后逐行解析文本文件,并将每行所需的数据附加到ArrayBuffer。
代码没有编译错误。但是当我在我附加它的块之外访问ArrayBuffer时,我无法获取内容并且ArrayBuffer始终为空。
我的代码在下面 -
Schema::table('articulos', function($table) {
$table->foreign('categoria_id')->references('id')->on('categorias')->onDelete('cascade');
$table->foreign('creador_id')->references('id')->on('users');
});
有人可以指出为什么这段代码不起作用。
非常感谢任何帮助。
答案 0 :(得分:2)
我认为objectA class allSelectors
是spark
。在这种情况下,本地SparkContext
未更新,仅将其副本作为闭包发送到spark,这并不奇怪。如果您需要list
中的可变值,则应使用Accumulator
。