我们看到Kafka + Storm + Trident + OpaqueTridentKafkaSpout存在一些性能问题
下面提到的是我们的设置细节:
风暴拓扑:
Broker broker = Broker.fromString("localhost:9092")
GlobalPartitionInformation info = new GlobalPartitionInformation()
if(args[4]){
int partitionCount = args[4].toInteger()
for(int i =0;i<partitionCount;i++){
info.addPartition(i, broker)
}
}
StaticHosts hosts = new StaticHosts(info)
TridentKafkaConfig tridentKafkaConfig = new TridentKafkaConfig(hosts,"test")
tridentKafkaConfig.scheme = new SchemeAsMultiScheme(new StringScheme())
OpaqueTridentKafkaSpout kafkaSpout = new OpaqueTridentKafkaSpout(tridentKafkaConfig)
TridentTopology topology = new TridentTopology()
Stream st = topology.newStream("spout1", kafkaSpout).parallelismHint(args[2].toInteger())
.each(kafkaSpout.getOutputFields(), new NEO4JTridentFunction(), new Fields("status"))
.parallelismHint(args[1].toInteger())
Map conf = new HashMap()
conf.put(Config.TOPOLOGY_WORKERS, args[3].toInteger())
conf.put(Config.TOPOLOGY_DEBUG, false)
if (args[0] == "local") {
LocalCluster cluster = new LocalCluster()
cluster.submitTopology("mytopology", conf, topology.build())
} else {
StormSubmitter.submitTopology("mytopology", conf, topology.build())
NEO4JTridentFunction.getGraphDatabaseService().shutdown()
}
我们用于Storm的Storm.yaml如下:
########### These MUST be filled in for a storm configuration
storm.zookeeper.servers:
- "localhost"
# - "server2"
#
storm.zookeeper.port : 2999
storm.local.dir: "/opt/mphrx/neo4j/stormdatadir"
nimbus.childopts: "-Xms2048m"
ui.childopts: "-Xms1024m"
logviewer.childopts: "-Xmx512m"
supervisor.childopts: "-Xms1024m"
worker.childopts: "-Xms2600m -Xss256k -XX:MaxPermSize=128m -XX:PermSize=96m
-XX:NewSize=1000m -XX:MaxNewSize=1000m -XX:MaxTenuringThreshold=1 -XX:SurvivorRatio=6
-XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSParallelRemarkEnabled
-XX:CMSInitiatingOccupancyFraction=75 -XX:+UseCMSInitiatingOccupancyOnly
-server -XX:+AggressiveOpts -XX:+UseCompressedOops -Djava.awt.headless=true -Djava.net.preferIPv4Stack=true
-Xloggc:logs/gc-worker-%ID%.log -verbose:gc
-XX:+UseGCLogFileRotation -XX:NumberOfGCLogFiles=10 -XX:GCLogFileSize=1m
-XX:+PrintGCDetails -XX:+PrintHeapAtGC -XX:+PrintGCTimeStamps -XX:+PrintClassHistogram
-XX:+PrintTenuringDistribution -XX:-PrintGCApplicationStoppedTime -XX:-PrintGCApplicationConcurrentTime
-XX:+PrintCommandLineFlags -XX:+PrintFlagsFinal"
java.library.path: "/usr/lib/jvm/jdk1.7.0_25"
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703
topology.trident.batch.emit.interval.millis: 100
topology.message.timeout.secs: 300
#topology.max.spout.pending: 10000
Bolt / Function(NEO4JTridentFunction)的并行性提示:50
我们看到Spout的吞吐量大约为12毫秒/秒。
Storm和Kafka都是单节点部署。 我们已经了解了Storm的更高吞吐量但无法生成相同的吞吐量。请建议如何调整Storm + Kafka + OpaqueTridentKafkaSpout配置以实现更高的吞吐量。在这方面的任何帮助都将极大地帮助我们。
谢谢,
答案 0 :(得分:2)
您应该将spout parallelism设置为与上述主题的分区计数相同。
默认情况下,trident为每次执行接受一个批处理,您应该通过更改topology.max.spout.pending
属性来增加此计数。由于Trident强制命令事务管理,您的执行方法(NEO4JTridentFunction)必须快速到达所需的解决方案。
此外,您可以使用"tridentConfig.fetchSizeBytes"
进行游戏,通过更改它,您可以为您的喷口中的每个新发出呼叫提取更多数据。
此外,您必须检查您的垃圾收集日志,它将为您提供有关真实点的线索。
您可以通过在worker配置中的worker.childopts设置中添加"-XX:+PrintGCDetails -XX:+PrintGCTimeStamps -verbose:gc -Xloggc:{path}/gc-storm-worker-%ID%.log"
来启用垃圾收集日志。
最后但并非最不重要的是,如果你的年轻一代比例高于正常情况,你可以使用G1GC。
答案 1 :(得分:0)
请根据您的系统配置设置您的worker.childopts。使用SpoutConfig.fetchSizeBytes可以增加拉入拓扑的字节数。增加并行性提示。
答案 2 :(得分:0)
我的计算:如果8个核心和每个螺栓500MS - > ~16条消息/秒。 如果您优化螺栓,那么您将看到改进。
另外,对于CPU绑定螺栓,请尝试Parallelism提示='总核心数' 并将 topology.trident.batch.emit.interval.millis 增加到处理整批产品所需的时间除以2。 将topology.max.spout.pending设置为1。