用于组合任务的Spring Cloud Dataflow卷挂载

时间:2020-07-01 18:20:53

标签: spring kubernetes spring-batch spring-cloud-dataflow

您可以在组成的任务上装载卷吗?

我看到您可以将参数传递给组成的任务,如下所示:

 --arguments "--composed-task-arguments=--app.datasource.jdbc-url=jdbc:mysql:XXXXX"

并将属性传递给部署者以按如下方式装载卷:

 --properties "deployer.*.kubernetes.volumeMounts=[{name: 'myName', mountPath: 
'/test'}], deployer.*.kubernetes.volumes=[{name: 'myName', persistentVolumeClaim: { 
claimName: 'myName'}}]"

但是,这样做只能看到安装在组合任务运行器上的卷,而看不到从其生成的子任务。有办法吗?

1 个答案:

答案 0 :(得分:0)

请参考问题的答案:passing properties to child task of composed-task-runner app of spring cloud dataflow

确切地说,您需要执行以下操作:

deployer.<name-of-your-composed-task>.<child task name/label>.kubernetes.volumeMounts=***

文档here可以帮助您更好地理解这一点。