Spark中的卷积神经网络

时间:2016-10-09 20:23:34

标签: apache-spark apache-spark-mllib conv-neural-network apache-spark-ml

我正在尝试在Spark上实现卷积神经网络算法,我想在继续前进之前提出两个问题。

我需要实现我的代码,使其与Spark高度集成,并遵循Spark中机器学习算法的原则。我发现Spark ML是机器学习代码的既定基础,它有一个特定的基础,所有编写的算法都遵循。此外,实现的算法将其繁重的数学运算卸载到第三方库(如BLAS),以便快速进行计算。

现在我想问:

1)ML是正确的起点吗?通过遵循ML结构,我的代码是否与Spark ML生态系统的其余部分高度可集?

2)我对ML代码的底部是否正确,他们将处理卸载到另一个数学库中?这是否意味着我可以决定更改该层以自定义方式进行繁重的处理?

感谢任何建议。

0 个答案:

没有答案