我在 AWS 中有一个 EMR 集群,在 Cloudformation 模板中配置。在我的模板中,我有一个在主节点上执行脚本的步骤。此脚本的目的是更改hue.ini 文件。 脚本中的最后一步是重新启动 Hue,以使更改生效。我正在关注 this 文档以获得正确的命令。本文档明确指出请勿重新启动。
运行 sudo systemctl stop hue
后跟 sudo systemctl start hue
会使 Hue 处于以下状态(每个 sudo systemctl status hue
):
[root@ip-10-x-xxx-xxx ~]# sudo systemctl status hue
● hue.service - Hue web server
Loaded: loaded (/etc/systemd/system/hue.service; enabled; vendor preset: disabled)
Active: activating (auto-restart) (Result: exit-code) since Wed 2021-05-19 18:44:27 UTC; 2s ago
Process: 22743 ExecStart=/etc/init.d/hue start (code=exited, status=1/FAILURE)
Main PID: 17508 (code=exited, status=1/FAILURE)
Tasks: 0
Memory: 0B
CGroup: /system.slice/hue.service
May 19 18:44:27 ip-10-x-xxx-xxx systemd[1]: Failed to start Hue web server.
May 19 18:44:27 ip-10-x-xxx-xxx systemd[1]: Unit hue.service entered failed state.
May 19 18:44:27 ip-10-x-xxx-xxx systemd[1]: hue.service failed.
在实例上再次手动运行启动返回:
Job for hue.service failed because the control process exited with error code. See "systemctl status hue.service" and "journalctl -xe" for details.
那些日志和上面一样。我也检查了 this 类似的问题,但答案对我不起作用。
EMR:emr-6.2.0 色调:4.8.0
答案 0 :(得分:0)
经过更多的研究,这似乎不是最好的方法。最好的方法是在我的 Cloudformation 模板中包含一个 hue-ini
分类锁。这会应用更改并为您执行所需的重新启动。