我有一个单节点MemSql集群:
为了ETL,我在这个Memsql上部署了Spark。
我无法在Memsql上配置spark。
如何为Spark Work目录设置轮换策略:/var/lib/memsql-ops/data/spark/install/work/
如何更改路径?
应设置spark.executor.memory
多大以避免OutOfMemoryExceptions?
如何为部署在Memsql集群上的Spark设置不同的配置设置?
答案 0 :(得分:1)
希望以下内容能解决您的问题:
spark.worker.cleanup.enabled
及相关配置选项:https://spark.apache.org/docs/1.5.1/spark-standalone.html /var/lib/memsql-ops/data/spark/install/conf/spark_{master,worker}.conf
中更改配置。更改配置后,必须使用memsql-ops spark-component-stop --all
然后memsql-ops spark-component-start --all