我们正在考虑为我们的R& D分析和数据挖掘项目建立一个独立的Spark集群(不需要Hadoop)。 为此,我们将保留少量的电脑(4-8)。出于“政治”原因,这些机器都运行Windows。 我的问题是,如果可以在这些PC上设置一个Spark集群,其中每个节点在Linux VM上运行,即不是在一台PC上有多个VM,每个节点/ pc就会在其上运行自己的VM。 请注意,在操作上我对Spark很新,我的背景是在数据库中。我已经阅读过使用Vagrant / Salt(这些也是新的)来配置虚拟机,但在大多数示例中,起点是基于Linux的主机,虚拟机都在一台机器上设置。
非常感谢提前