SCDF kubernetes定制源正在将数据写入“输出”通道

时间:2019-06-27 04:13:17

标签: spring kubernetes cloud flow

我有一个自定义源应用程序,该应用程序从外部kafka服务器读取数据,并将信息传递到流中的下一个处理器。在本地,一切正常。我已经创建了代码的docker映像,并且当我在kubernetes env中部署流时,我确实看到了具有名称stream.source-app的主题,但是源产生的消息实际上将进入“输出”主题。我在本地环境中看不到此问题。

application.yaml

spring:
  cloud:
    stream:
      bindings:
        Workitemconnector_subscribe:
          destination: Workitemconnector
          contentType: application/json
          group: SCDFMessagingSourceTestTool1
          consumer:
            partitioned: true
            concurrency: 1
            headerMode: embeddedHeaders        
        output:
#          destination: dataOut
          binder: kafka2              
      binders:
        kafka1:
         type: kafka
         environment:
           spring:
             cloud:
               stream:
                kafka:
                  binder:
                    brokers: xx.xxx.xx.xxx:9092
                    zkNodes: xx.xxx.xx.xxx:2181
        kafka2:
         type: kafka
         environment:
           spring:
             cloud:
               stream:
                 kafka:
                   binder:
                     brokers: server1:9092
                     zkNodes: server1:2181
spring.cloud.stream.defaultBinder: kafka1 

在本地中,在流部署期间未定义任何参数,我注意到源正在消耗来自xxxx服务器的消息,并生成数据到server1和主题名称“ stream.sourceapp”,但是在kubernetes env中,它表现得很奇怪。即使存在“ stream.sourceapp”主题,它也总是将数据发送到“输出”主题

0 个答案:

没有答案