有人可以解释一下为什么会这样吗?
aatiis@aiur ~ $ time python /usr/lib64/python2.7/timeit.py -n 1 \
-- 'x = 10**1000'
1 loops, best of 3: 0.954 usec per loop
real 0m0.055s
user 0m0.050s
sys 0m0.000s
aatiis@aiur ~ $ time python /usr/lib64/python2.7/timeit.py -n 1 \
-- 'x = 10**100000'
1 loops, best of 3: 0.954 usec per loop
real 0m0.067s
user 0m0.040s
sys 0m0.020s
aatiis@aiur ~ $ time python /usr/lib64/python2.7/timeit.py -n 1 \
-- 'x = 10**10000000'
1 loops, best of 3: 0.954 usec per loop
real 0m20.802s
user 0m20.540s
sys 0m0.170s
我从timeit
获得完全相同的结果,但time
告诉我评估10**10000000
需要超过20秒。如果我从解释器中调用timeit
,也会发生同样的情况:
>>> t = time.time()
>>> print timeit.timeit('x = 10**10000000;', number=1)
5.00679016113e-06
>>> print time.time() - t
20.6168580055
为什么我的timeit
无效,或者我做错了什么?
其他信息:
>>> print sys.version
2.7.1+ (2.7:4f07cacb2c3b+, Mar 28 2011, 23:11:59)
[GCC 4.4.5]
>>> print sys.version_info
>>> sys.version_info(major=2, minor=7, micro=2, releaselevel='alpha', serial=0)
更新
这是另一个非常有趣的观察结果:
>>> def run():
... t = time.time()
... x = 10**10000000
... print time.time() - t
当我在定义此功能后按Enter键时,大约需要半分钟才能返回提示。然后:
>>> run()
2.14576721191e-06
为什么会这样?函数体是以某种方式预编译或优化的吗?
答案 0 :(得分:5)
我的猜测问题在于你如何向timeit
陈述问题。我认为正在发生的事情是,在编译测试表达式时,表达式将被评估一次,然后只使用每个timeit循环查看(而不是重新评估)。因此,目前您所测量的只是进行分配而不是计算所需的时间。
每次都需要强制进行计算:
timeit.timeit('x = 10; y = 100; z = x ** y')
编辑:在回答您之后的问题时,正在优化功能体。编译器看到10*100000
并意识到它不会改变,所以在编译时而不是运行时计算它。
答案 1 :(得分:4)
比较
>>> import dis
>>> def run():
... return 10**100
...
>>> dis.dis(run)
3 0 LOAD_CONST 3 (100000000000000000000000000000000000
00000000000000000000000000000000000000000000000000000000000000000L)
3 RETURN_VALUE
和
>>> def runvar():
... x = 10
... return x**100
...
>>> dis.dis(runvar)
3 0 LOAD_CONST 1 (10)
3 STORE_FAST 0 (x)
4 6 LOAD_FAST 0 (x)
9 LOAD_CONST 2 (100)
12 BINARY_POWER
13 RETURN_VALUE
请注意,BINARY_POWER
仅在第二种情况下在运行时执行。所以timeit
表现得应该如此。