当我使用bin / start-all.sh脚本启动hadoop时,似乎为名称节点,数据节点,作业跟踪器和任务跟踪器启动了不同的JVM。
此外,当我开始工作时,它似乎为每个工作创建了另一个JVM。
hadoop有没有具体原因呢。我知道它在多节点集群环境中是必要的,但即使在单个节点集群上也是如此。
有没有办法可以指定在同一个JVM下运行所有内容的任何配置参数?
答案 0 :(得分:3)
我没有读过任何明确说明他们为什么这样做的东西,但是有了多个JVM,你可能会使用更多的物理RAM(取决于O / S)。你也有些孤立。因此,如果要更改一个组件的配置方式,则只需重新启动该组件即可。并不是说这是一个巨大的好处,必然。此外,从实现的角度来看,以相同的方式执行它可能更简单,而对于不同的设置则不是不同的逻辑。
OTOH,为什么不生成多个JVM?