性能问题:Kafka + Storm + Trident + OpaqueTridentKafkaSpout

时间:2014-07-01 12:35:48

标签: java apache-kafka apache-storm trident

我们看到Kafka + Storm + Trident + OpaqueTridentKafkaSpout存在一些性能问题

下面提到的是我们的设置细节:

风暴拓扑:

Broker broker = Broker.fromString("localhost:9092")
    GlobalPartitionInformation info = new GlobalPartitionInformation()
    if(args[4]){
        int partitionCount = args[4].toInteger()
        for(int i =0;i<partitionCount;i++){
            info.addPartition(i, broker)
        }
    }
    StaticHosts hosts = new StaticHosts(info)
    TridentKafkaConfig tridentKafkaConfig = new TridentKafkaConfig(hosts,"test")
    tridentKafkaConfig.scheme = new SchemeAsMultiScheme(new StringScheme())


    OpaqueTridentKafkaSpout kafkaSpout = new OpaqueTridentKafkaSpout(tridentKafkaConfig)
    TridentTopology topology = new TridentTopology()
    Stream st  = topology.newStream("spout1", kafkaSpout).parallelismHint(args[2].toInteger())
            .each(kafkaSpout.getOutputFields(), new NEO4JTridentFunction(), new Fields("status"))
            .parallelismHint(args[1].toInteger())
    Map conf = new HashMap()
    conf.put(Config.TOPOLOGY_WORKERS, args[3].toInteger())
    conf.put(Config.TOPOLOGY_DEBUG, false)

    if (args[0] == "local") {
        LocalCluster cluster = new LocalCluster()
        cluster.submitTopology("mytopology", conf, topology.build())
    } else {
        StormSubmitter.submitTopology("mytopology", conf, topology.build())
        NEO4JTridentFunction.getGraphDatabaseService().shutdown()
    }
我们用于Storm的Storm.yaml如下:

########### These MUST be filled in for a storm configuration
storm.zookeeper.servers:
     - "localhost"
#     - "server2"
# 
storm.zookeeper.port : 2999


storm.local.dir: "/opt/mphrx/neo4j/stormdatadir"

nimbus.childopts: "-Xms2048m"
ui.childopts: "-Xms1024m"
logviewer.childopts: "-Xmx512m"
supervisor.childopts: "-Xms1024m"
worker.childopts: "-Xms2600m -Xss256k -XX:MaxPermSize=128m -XX:PermSize=96m
    -XX:NewSize=1000m -XX:MaxNewSize=1000m -XX:MaxTenuringThreshold=1 -XX:SurvivorRatio=6
    -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSParallelRemarkEnabled
    -XX:CMSInitiatingOccupancyFraction=75 -XX:+UseCMSInitiatingOccupancyOnly
    -server -XX:+AggressiveOpts -XX:+UseCompressedOops -Djava.awt.headless=true -Djava.net.preferIPv4Stack=true
    -Xloggc:logs/gc-worker-%ID%.log -verbose:gc
    -XX:+UseGCLogFileRotation -XX:NumberOfGCLogFiles=10 -XX:GCLogFileSize=1m
    -XX:+PrintGCDetails -XX:+PrintHeapAtGC -XX:+PrintGCTimeStamps -XX:+PrintClassHistogram
    -XX:+PrintTenuringDistribution -XX:-PrintGCApplicationStoppedTime -XX:-PrintGCApplicationConcurrentTime
    -XX:+PrintCommandLineFlags -XX:+PrintFlagsFinal"

java.library.path: "/usr/lib/jvm/jdk1.7.0_25"

supervisor.slots.ports:
    - 6700
    - 6701
    - 6702
    - 6703

topology.trident.batch.emit.interval.millis: 100
topology.message.timeout.secs: 300
#topology.max.spout.pending: 10000
  • Kafka中生成的每封邮件的大小:11 KB
  • 处理数据的每个螺栓(NEO4JTridentFunction)的执行时间:500ms
  • 否。风暴工人:1
  • Spout的并行性提示(OpaqueTridentKafkaSpout):1
  • Bolt / Function(NEO4JTridentFunction)的并行性提示:50

  • 我们看到Spout的吞吐量大约为12毫秒/秒。

  • Kafka产生的消息率:150msgs / sec

Storm和Kafka都是单节点部署。 我们已经了解了Storm的更高吞吐量但无法生成相同的吞吐量。请建议如何调整Storm + Kafka + OpaqueTridentKafkaSpout配置以实现更高的吞吐量。在这方面的任何帮助都将极大地帮助我们。

谢谢,

3 个答案:

答案 0 :(得分:2)

您应该将spout parallelism设置为与上述主题的分区计数相同。 默认情况下,trident为每次执行接受一个批处理,您应该通过更改topology.max.spout.pending属性来增加此计数。由于Trident强制命令事务管理,您的执行方法(NEO4JTridentFunction)必须快速到达所需的解决方案。

此外,您可以使用"tridentConfig.fetchSizeBytes"进行游戏,通过更改它,您可以为您的喷口中的每个新发出呼叫提取更多数据。

此外,您必须检查您的垃圾收集日志,它将为您提供有关真实点的线索。

您可以通过在worker配置中的worker.childopts设置中添加"-XX:+PrintGCDetails -XX:+PrintGCTimeStamps -verbose:gc -Xloggc:{path}/gc-storm-worker-%ID%.log"来启用垃圾收集日志。

最后但并非最不重要的是,如果你的年轻一代比例高于正常情况,你可以使用G1GC。

答案 1 :(得分:0)

请根据您的系统配置设置您的worker.childopts。使用SpoutConfig.fetchSizeBytes可以增加拉入拓扑的字节数。增加并行性提示。

答案 2 :(得分:0)

我的计算:如果8个核心和每个螺栓500MS - > ~16条消息/秒。 如果您优化螺栓,那么您将看到改进。

另外,对于CPU绑定螺栓,请尝试Parallelism提示='总核心数' 并将 topology.trident.batch.emit.interval.millis 增加到处理整批产品所需的时间除以2。 将topology.max.spout.pending设置为1。