我正在处理Objective-C中的图像并尝试了Grand Central Dispatch,结果非常糟糕。 CPU使用率翻倍,处理图像的时间翻倍。
- (void) processImage:(struct ImageData)image {
imageData = image;
[allyMinionManager prepareForPixelProcessing];
int cores = 4;
int section = imageData.imageHeight/cores;
if (section < 1) {
section = 1;
}
dispatch_group_t group = dispatch_group_create();
for (int i = 0; i < cores; i++) {
int yStart = section * i;
int yEnd = yStart + section;
if (i == cores - 1) {
yEnd = imageData.imageHeight;
}
dispatch_group_enter(group);
dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_HIGH, 0), ^{
for (int y = yStart; y < yEnd; y++) {
uint8_t *pixel = imageData.imageData + (y * imageData.imageWidth)*4;
for (int x = 0; x < imageData.imageWidth; x++) {
[allyMinionManager processPixel:pixel x:x y:y];
pixel += 4;
}
}
dispatch_group_leave(group);
});
}
dispatch_group_wait(group, DISPATCH_TIME_FOREVER);
[allyMinionManager postPixelProcessing:imageData];
}
我在核心之间分离图像,然后等待已分派的任务完成。如果我有1200x800图像,每个线程应处理240,000像素。
核心设置为1:95%CPU使用率,16ms处理时间
核心设置为4:120%CPU使用率,33ms处理时间
知道为什么表现如此糟糕?
(额外的问题:当我将编译器优化标志设置为最低时,我的程序中的CPU使用率从45%变为300%。这是正常的吗?)
答案 0 :(得分:1)
我经常发现使用多线程代码通常无法实现理论上预期的好处。收益递减。有关更全面的讨论,请参阅iOS Concurrency - Not reaching anywhere's near theoretical maximum。
注意,您可以使用dispatch_group_async
,这将消除手动进入和离开组的需要(如果您要调度的代码块本身是异步的,则只需要这样做)。更好的是,鉴于你在最后等待,你应该考虑使用dispatch_apply
,这完全取消了该组。
使用dispatch_apply
,在Mac上运行我发现2个线程占用了单线程实现的78%的时间,4个占用了47%的时间,8个占用了38%的时间。因此,线程数量的增加带来了好处,但它们的回报却在减少。
在iPhone 6+上,当我从一个线程转到两个线程时,我经历了类似的性能提升,但我发现当我使用四到八个线程时,没有进一步的性能提升。
所以,最重要的是,我建议尝试dispatch_apply
。如果设备上的性能提升相当快,那么不要感到惊讶。所以尝试只使用2&#34;内核&#34;并看看结果如何。