我们在这里使用Kubernetes Job
进行大量的批量计算,我想用监控边车来检测每个Job,以便根据工作进度更新集中跟踪系统。
唯一的问题是,我无法弄清楚作业中多个容器的语义是什么(或应该是什么)。
我还是给了它一个镜头(一个alpine
边车每1秒打印一次“你好”)并且在我的主要任务完成后,Job
被视为Successful
并且Kubernetes 1.2.0中的kubectl get pods
显示:
NAME READY STATUS RESTARTS AGE
job-69541b2b2c0189ba82529830fe6064bd-ddt2b 1/2 Completed 0 4m
job-c53e78aee371403fe5d479ef69485a3d-4qtli 1/2 Completed 0 4m
job-df9a48b2fc89c75d50b298a43ca2c8d3-9r0te 1/2 Completed 0 4m
job-e98fb7df5e78fc3ccd5add85f8825471-eghtw 1/2 Completed 0 4m
如果我描述其中一个豆荚
State: Terminated
Reason: Completed
Exit Code: 0
Started: Thu, 24 Mar 2016 11:59:19 -0700
Finished: Thu, 24 Mar 2016 11:59:21 -0700
然后GET
作业的yaml显示每个容器的信息:
status:
conditions:
- lastProbeTime: null
lastTransitionTime: 2016-03-24T18:59:29Z
message: 'containers with unready status: [pod-template]'
reason: ContainersNotReady
status: "False"
type: Ready
containerStatuses:
- containerID: docker://333709ca66462b0e41f42f297fa36261aa81fc099741e425b7192fa7ef733937
image: luigi-reduce:0.2
imageID: docker://sha256:5a5e15390ef8e89a450dac7f85a9821fb86a33b1b7daeab9f116be252424db70
lastState: {}
name: pod-template
ready: false
restartCount: 0
state:
terminated:
containerID: docker://333709ca66462b0e41f42f297fa36261aa81fc099741e425b7192fa7ef733937
exitCode: 0
finishedAt: 2016-03-24T18:59:30Z
reason: Completed
startedAt: 2016-03-24T18:59:29Z
- containerID: docker://3d2b51436e435e0b887af92c420d175fafbeb8441753e378eb77d009a38b7e1e
image: alpine
imageID: docker://sha256:70c557e50ed630deed07cbb0dc4d28aa0f2a485cf7af124cc48f06bce83f784b
lastState: {}
name: sidecar
ready: true
restartCount: 0
state:
running:
startedAt: 2016-03-24T18:59:31Z
hostIP: 10.2.113.74
phase: Running
所以看起来我的边车需要观看主要过程(如何?)并且一旦检测到它独自在吊舱中就会优雅地退出?如果这是正确的,那么是否有最佳实践/模式(如果sidecar退出主容器的返回代码?但它是如何得到的?)?
**更新** 经过进一步的实验,我还发现了以下内容: 如果一个pod中有两个容器,那么在pod中的所有容器返回退出代码0之前,它不会被视为成功。
此外,如果在pod规范中设置了restartPolicy: OnFailure
,那么将使用非零退出代码终止的pod中的任何容器将在同一个pod中重新启动(这对于监视边车计数非常有用)重试次数并删除一定数量后的作业(解决方法当前Kubernetes工作中没有最大重试次数))。