我正在尝试在Spark上实现卷积神经网络算法,我想在继续前进之前提出两个问题。
我需要实现我的代码,使其与Spark高度集成,并遵循Spark中机器学习算法的原则。我发现Spark ML是机器学习代码的既定基础,它有一个特定的基础,所有编写的算法都遵循。此外,实现的算法将其繁重的数学运算卸载到第三方库(如BLAS),以便快速进行计算。
现在我想问:
1)ML是正确的起点吗?通过遵循ML结构,我的代码是否与Spark ML生态系统的其余部分高度可集?
2)我对ML代码的底部是否正确,他们将处理卸载到另一个数学库中?这是否意味着我可以决定更改该层以自定义方式进行繁重的处理?
感谢任何建议。