如何优化图像比较脚本的性能?

时间:2014-09-16 22:43:28

标签: python multithreading performance python-3.x

我编写了一个脚本,使用均方根比较将一组大量图像(超过4500个文件)相互比较。首先,它将每个图像的大小调整为800x600并采用直方图。之后,它构建一组组合并将它们均匀分布到四个线程,计算每个组合的均方根。 RMS低于500的图像将被移动到文件夹中,以便稍后手动分拣。

#!/usr/bin/python3

import sys
import os
import math
import operator
import functools
import datetime
import threading
import queue
import itertools
from PIL import Image


def calc_rms(hist1, hist2):
    return math.sqrt(
        functools.reduce(operator.add, map(
            lambda a, b: (a - b) ** 2, hist1, hist2
        )) / len(hist1)
    )


def make_histogram(imgs, path, qout):
    for img in imgs:
        try:
            tmp = Image.open(os.path.join(path, img))
            tmp = tmp.resize((800, 600), Image.ANTIALIAS)
            qout.put([img, tmp.histogram()])
        except Exception:
            print('bad image: ' + img)
    return


def compare_hist(pairs, path):
    for pair in pairs:
        rms = calc_rms(pair[0][1], pair[1][1])
        if rms < 500:
            folder = 'maybe duplicates'
            if rms == 0:
                folder = 'exact duplicates'
            try:
                os.rename(os.path.join(path, pair[0][0]), os.path.join(path, folder, pair[0][0]))
            except Exception:
                pass
            try:
                os.rename(os.path.join(path, pair[1][0]), os.path.join(path, folder, pair[1][0]))
            except Exception:
                pass
    return


def get_time():
    return datetime.datetime.now().strftime("%H:%M:%S")


def chunkify(lst, n):
    return [lst[i::n] for i in range(n)]


def main(path):
    starttime = get_time()
    qout = queue.Queue()
    images = []
    for img in os.listdir(path):
        if os.path.isfile(os.path.join(path, img)):
            images.append(img)
    imglen = len(images)
    print('Resizing ' + str(imglen) + ' Images ' + starttime)
    images = chunkify(images, 4)
    threads = []
    for x in range(4):
        threads.append(threading.Thread(target=make_histogram, args=(images[x], path, qout)))

    [x.start() for x in threads]
    [x.join() for x in threads]

    resizetime = get_time()
    print('Done resizing ' + resizetime)

    histlist = []
    for i in qout.queue:
        histlist.append(i)

    if not os.path.exists(os.path.join(path, 'exact duplicates')):
        os.makedirs(os.path.join(path, 'exact duplicates'))
    if not os.path.exists(os.path.join(path, 'maybe duplicates')):
        os.makedirs(os.path.join(path, 'maybe duplicates'))

    combinations = []
    for img1, img2 in itertools.combinations(histlist, 2):
        combinations.append([img1, img2])

    combicount = len(combinations)
    print('Going through ' + str(combicount) + ' combinations of ' + str(imglen) + ' Images. Please stand by')
    combinations = chunkify(combinations, 4)

    threads = []

    for x in range(4):
        threads.append(threading.Thread(target=compare_hist, args=(combinations[x], path)))

    [x.start() for x in threads]
    [x.join() for x in threads]

    print('\nstarted at ' + starttime)
    print('resizing done at ' + resizetime)
    print('went through ' + str(combicount) + ' combinations of ' + str(imglen) + ' Images')
    print('all done at ' + get_time())

if __name__ == '__main__':
    main(sys.argv[1]) # sys.argv[1] has to be a folder of images to compare

这有效,但比较在15到20分钟内完成调整后运行了几个小时。起初我假设它是一个锁定队列,工人从中获取它们的组合,所以我用预定义的数组块替换它。这并没有减少执行时间。我也在不移动文件的情况下运行它以排除可能的硬盘驱动器问题。

使用cProfile进行分析可提供以下输出。

Resizing 4566 Images 23:51:05
Done resizing 00:05:07
Going through 10421895 combinations of 4566 Images. Please stand by

started at 23:51:05
resizing done at 00:05:07
went through 10421895 combinations of 4566 Images
all done at 03:09:41
         10584539 function calls (10584414 primitive calls) in 11918.945 seconds

   Ordered by: cumulative time

   ncalls  tottime  percall  cumtime  percall filename:lineno(function)
     16/1    0.001    0.000 11918.945 11918.945 {built-in method exec}
        1    2.962    2.962 11918.945 11918.945 imcomp.py:3(<module>)
        1   19.530   19.530 11915.876 11915.876 imcomp.py:60(main)
       51 11892.690  233.190 11892.690  233.190 {method 'acquire' of '_thread.lock' objects}
        8    0.000    0.000 11892.507 1486.563 threading.py:1028(join)
        8    0.000    0.000 11892.507 1486.563 threading.py:1066(_wait_for_tstate_lock)
        1    0.000    0.000 11051.467 11051.467 imcomp.py:105(<listcomp>)
        1    0.000    0.000  841.040  841.040 imcomp.py:76(<listcomp>)
 10431210    1.808    0.000    1.808    0.000 {method 'append' of 'list' objects}
     4667    1.382    0.000    1.382    0.000 {built-in method stat}

可以找到完整的探查器输出here

考虑到第四行,我猜测线程以某种方式锁定。但是为什么以及为什么正好51次而不管图像数量多少?

我在Windows 7 64位上运行它。

提前致谢。

2 个答案:

答案 0 :(得分:2)

一个主要问题是您使用线程来完成至少部分受CPU限制的工作。由于Global Interpreter Lock,一次只能运行一个CPython线程,这意味着您无法利用多个CPU核心。这将使CPU绑定任务的多线程性能与单核执行完全没有区别,甚至可能更糟,因为线程增加了额外的开销。这在threading documentation中注明:

  

CPython实现细节:在CPython中,由于Global   解释器锁,只有一个线程可以一次执行Python代码   (即使某些面向性能的库可能会克服   这个限制)。如果您希望您的应用程序更好地使用   建议您使用多核机器的计算资源   使用multiprocessing。但是,线程仍然是一个合适的模型   如果你想同时运行多个I / O绑定任务。

要解决GIL的限制,您应该按照文档的说法进行操作,并使用multiprocessing库而不是threading库:

import multiprocessing
...

qout = multiprocessing.Queue()

for x in range(4):
    threads.append(multiprocessing.Process(target=make_histogram, args=(images[x], path, qout)))

...
for x in range(4):
    threads.append(multiprocessing.Process(target=compare_hist, args=(combinations[x], path)))

正如您所看到的,multiprocessing在很大程度上是threading的替代品,因此更改不应太难。唯一的复杂因素是,如果你在进程之间传递的任何参数都是不可选的,尽管我认为所有这些参数都在你的情况下。在进程之间发送Python数据结构的IPC成本也在增加,但我怀疑真正并行计算的好处将超过额外的开销。

所有这一切,由于依赖对磁盘的读/写,你可能仍然有点I / O绑定在这里。并行化不会使您的磁盘I / O更快,因此在那里可以做的并不多。

答案 1 :(得分:0)

要比较4500个图像,我建议在文件级进行多处理,而不是(必然)在图像中进行多线程处理。正如@dano指出的那样,GIL将为此做好准备。我的策略是:

  1. 每个核心一个工作进程(或配置的数字);
  2. 一个编排过程,分解上述内容;做一些IPC来协调工作岗位。
  3. 仔细查看您的代码,看起来它会从懒惰的语言中受益;我没有看到任何尝试进行短路比较。例如,如果对图像的每个片段进行RMS比较,则一旦确定它们与众不同,就可以停止比较。您可能还需要更改迭代块的方式以及块的大小/形状。

    除此之外,我会考虑考虑更便宜的机制,避免做一些平方根;可能使用创建“近似”平方根的东西,可能使用查找表。

    如果我没弄错的话,你也可以创建一个你应该暂时保留的中间形式(直方图)。无需保存800x600图像。

    此外,了解您对此练习的“平等”意味着什么。