如何找出我的代码中哪些部分在Python中效率低下

时间:2017-08-26 09:02:57

标签: python performance python-3.x profiling processing-efficiency

在上一个问题中,我问过多处理,使用多个内核使程序运行得更快,有人告诉我这个:

  

通常情况下,使用更好的代码可以获得100倍以上的优化,相比之下,4倍的改进和多处理的额外复杂性

然后他们建议我:

  

使用分析器来了解什么是慢速,然后专注于优化它。

所以我回答了这个问题:How can you profile a script?

在这里,我找到cProfile并将其实施到一些测试代码中,以了解它是如何工作的。

这是我的代码:

import cProfile

def foo():
    for i in range(10000):
        a = i**i
        if i % 1000 == 0:
            print(i)

cProfile.run('foo()')

然而,在运行之后,这就是我得到的:

0
1000
2000
3000
4000
5000
6000
7000
8000
9000
         1018 function calls in 20.773 seconds

   Ordered by: standard name

   ncalls  tottime  percall  cumtime  percall filename:lineno(function)
        1    0.000    0.000   20.773   20.773 <string>:1(<module>)
      147    0.000    0.000    0.000    0.000 rpc.py:150(debug)
       21    0.000    0.000    0.050    0.002 rpc.py:213(remotecall)
       21    0.000    0.000    0.002    0.000 rpc.py:223(asynccall)
       21    0.000    0.000    0.048    0.002 rpc.py:243(asyncreturn)
       21    0.000    0.000    0.000    0.000 rpc.py:249(decoderesponse)
       21    0.000    0.000    0.048    0.002 rpc.py:287(getresponse)
       21    0.000    0.000    0.000    0.000 rpc.py:295(_proxify)
       21    0.001    0.000    0.048    0.002 rpc.py:303(_getresponse)
       21    0.000    0.000    0.000    0.000 rpc.py:325(newseq)
       21    0.000    0.000    0.002    0.000 rpc.py:329(putmessage)
       21    0.000    0.000    0.000    0.000 rpc.py:55(dumps)
       20    0.000    0.000    0.001    0.000 rpc.py:556(__getattr__)
        1    0.000    0.000    0.001    0.001 rpc.py:574(__getmethods)
       20    0.000    0.000    0.000    0.000 rpc.py:598(__init__)
       20    0.000    0.000    0.050    0.002 rpc.py:603(__call__)
       20    0.000    0.000    0.051    0.003 run.py:340(write)
        1   20.722   20.722   20.773   20.773 test.py:3(foo)
       42    0.000    0.000    0.000    0.000 threading.py:1226(current_thread)
       21    0.000    0.000    0.000    0.000 threading.py:215(__init__)
       21    0.000    0.000    0.047    0.002 threading.py:263(wait)
       21    0.000    0.000    0.000    0.000 threading.py:74(RLock)
       21    0.000    0.000    0.000    0.000 {built-in method _struct.pack}
       21    0.000    0.000    0.000    0.000 {built-in method _thread.allocate_lock}
       42    0.000    0.000    0.000    0.000 {built-in method _thread.get_ident}
        1    0.000    0.000   20.773   20.773 {built-in method builtins.exec}
       42    0.000    0.000    0.000    0.000 {built-in method builtins.isinstance}
       63    0.000    0.000    0.000    0.000 {built-in method builtins.len}
       10    0.000    0.000    0.051    0.005 {built-in method builtins.print}
       21    0.000    0.000    0.000    0.000 {built-in method select.select}
       21    0.000    0.000    0.000    0.000 {method '_acquire_restore' of '_thread.RLock' objects}
       21    0.000    0.000    0.000    0.000 {method '_is_owned' of '_thread.RLock' objects}
       21    0.000    0.000    0.000    0.000 {method '_release_save' of '_thread.RLock' objects}
       21    0.000    0.000    0.000    0.000 {method 'acquire' of '_thread.RLock' objects}
       42    0.047    0.001    0.047    0.001 {method 'acquire' of '_thread.lock' objects}
       21    0.000    0.000    0.000    0.000 {method 'append' of 'collections.deque' objects}
        1    0.000    0.000    0.000    0.000 {method 'disable' of '_lsprof.Profiler' objects}
       21    0.000    0.000    0.000    0.000 {method 'dump' of '_pickle.Pickler' objects}
       20    0.000    0.000    0.000    0.000 {method 'get' of 'dict' objects}
       21    0.000    0.000    0.000    0.000 {method 'getvalue' of '_io.BytesIO' objects}
       21    0.000    0.000    0.000    0.000 {method 'release' of '_thread.RLock' objects}
       21    0.001    0.000    0.001    0.000 {method 'send' of '_socket.socket' objects}

我希望它能告诉我我的代码中哪些部分花费的时间最长,例如它显示a = i**i花费的时间最长,但是我可以从它告诉我的内容中收集所有内容是foo()函数花了最长的时间,但是在函数中花费的时间最长,我不知道数据。

此外,当我将其实现到我的实际代码中时,它也会做同样的事情。一切都在函数中,它只告诉我哪些函数花费的时间最长而不是函数花了这么长时间。

以下是我的主要问题:

  1. 如何查看函数内部使代码耗时太久(我应该使用cProfile吗?)

  2. 一旦我知道使用最多CPU的内容,设置优化代码的最佳方法是什么

  3. 注意:我的RAM和磁盘等绝对没问题,它只是最大化的CPU(12%CPU,因为它只在单核上运行)

2 个答案:

答案 0 :(得分:13)

  

如何查看函数内部的代码使代码需要这么长时间(我是否应该使用cProfile?)

是的,您可以使用cProfile,但您提出问题的方式让我想知道line_profiler(第三方模块,您需要安装它)是不是一个更好的工具。

当我想要分析一个函数时,我正在使用这个包的IPython / Jupyter绑定:

%load_ext line_profiler

实际分析一个功能:

%lprun -f foo foo()
#             ^^^^^---- this call will be profiled
#         ^^^-----------function to profile

产生此输出:

Timer unit: 5.58547e-07 s

Total time: 17.1189 s
File: <ipython-input-1-21b5a5f52f66>
Function: foo at line 1

Line #      Hits         Time  Per Hit   % Time  Line Contents
==============================================================
     1                                           def foo():
     2     10001        31906      3.2      0.1      for i in range(10000):
     3     10000     30534065   3053.4     99.6          a = i**i
     4     10000        75998      7.6      0.2          if i % 1000 == 0:
     5        10         6953    695.3      0.0              print(i)

这包括一些可能有趣的事情。例如,99.6%行中花费i**i的时间。

  
      
  1. 一旦我知道什么是使用最多的CPU
  2. ,设置优化我的代码的最佳方法是什么   

这取决于。有时您需要使用不同的功能/数据结构/算法 - 有时您无法做任何事情。但至少你知道你的瓶颈在哪里,你可以估计瓶颈或其他地方的变化会产生多大的影响。

答案 1 :(得分:2)

正如您在分析日志中注意到的那样,cProfile最大分辨率是函数

所以:

  • 如果你的功能很小,你可以弄清楚哪个部分需要很长时间(虽然有时内置的调用有点困难,如in
  • 如果你的功能很大,也许是时候将它缩减为较小的功能,这些功能变得“可分析”,但是功能调用开销可能会减慢速度。