我正在尝试将kuberenets用作spark
的集群管理器。我还想将容器日志发送到splunk
。现在,我确实在同一名称空间中部署了监控堆栈(流利位,普罗米修斯等),并且它的工作方式是如果您的pod
拥有某个environment_variable
,它将开始阅读日志并将其推送到 splunk 。
我找不到的是如何设置环境变量并填充它
bin/spark-submit \
--deploy-mode cluster \
--class org.apache.spark.examples.SparkPi \
--master k8s://https://my-kube-cluster.com \
--conf spark.executor.instances=2 \
--conf spark.app.name=spark-pi \
....
....
....
--conf spark.kubernetes.driverEnv.UID="set it to spark driver pod id" \
local:///opt/spark/examples/jars/spark-examples_2.11-2.4.4.jar