我有一些关于软件宇宙的一般性问题,如果它们是基本的道歉但我试图理解宇宙的架构和使用。
我看到你打算将Apache Spark集成到Cosmos中?你有路线图或日期吗?如果我现在想要使用Spark会发生什么?
可以使用哪些Hadoop服务来源?我想我读过Cosmos支持Cloudera CDH服务和原始Hadoop服务器服务?那么HortonWorks或MapR呢?
我知道非标准文件系统可以与Hadoop一起使用,例如MapR-FS,这样的选项可能与Cosmos一起使用吗?
我还读到Cosmos“坐在”软件之上,因此可以使用Hadoop作为服务(HaaS)并使用开放堆栈生成Hadoop集群?但是,我看到人们指的是共享的软件云? fiware是否作为远程云运行?可以在客户站点上使用本地云吗?
cosmos是fiware.org上唯一的Apache Hadoop / Spark解决方案吗?
最后,如果Cloudera CDH可以与Cosmos一起使用,那么Cloudera集群管理器如何适应混合?还能用吗?
抱歉所有问题:)
答案 0 :(得分:0)
Cosmos是FIWARE实验室中大数据全球实例的名称。它是已部署在云中的共享Hadoop实例,可供FIWARE用户使用。
事实上,有两个例子:" old"一,提供相当旧的Hadoop堆栈版本,并且是cosmos.lab.fiware.org
的入口点。 " new"一,一对Hadoop集群,一个用于数据存储,另一个用于数据分析;入口点为storing.cosmos.lab.fiware.org
和computing.cosmos.lab.fiware.org
。
当然,您可以在FIWARE云(或任何其他云,例如Amazon)中部署您自己的任何其他Hadoop(甚至Spark)实例。
关于Spark,因为我们最初计划在FIWARE Lab中部署它(这就是它出现在路线图中的原因),现在还不清楚它是否会被部署。