spark如何处理相关计算的输入和输出

时间:2017-07-12 21:26:56

标签: java apache-spark apache-spark-mllib

我有200个JavaRDD,每个都有80个元素(200 * 80)。我将它们并行化并使它们为相关性做好准备。所以在这里我假设我的数据排列在200行和80列中,在运行相关后,我得到的结果矩阵总是80 * 80协方差矩阵。但就我而言,我试图获得200 * 200的结果。

火花是否明智吗?当我这样做的时候,确实有火花,因为我有80个物体来计算相关性吗? 如果是这样,我应该如何更改我的代码以首选方式完成任务?

fetch('/setjwt', { method: 'POST', headers: { credentials: 'same-origin' } } );

0 个答案:

没有答案