我在C中实现了最长公共子序列问题。我希望比较执行解决方案的递归版本和动态编程版本所花费的时间。如何在各种输入的两个版本中找到运行LCS功能所需的时间?我也可以使用SciPy在图表上绘制这些值并推断时间复杂度吗?
提前致谢,
剃刀
答案 0 :(得分:3)
对于你问题的第二部分:简短的回答是肯定的,你可以。您需要以便于从Python解析的格式获取两个数据集(每个解决方案一个)。类似的东西:
x y z
在每一行上,其中x是序列长度,y是动态解决方案所用的时间,z是递归解决方案所用的时间
然后,在Python中:
# Load these from your data sets.
sequence_lengths = ...
recursive_times = ...
dynamic_times = ...
import matplotlib.pyplot as plt
fig = plt.figure()
ax = fig.add_subplot(111)
p1 = ax.plot(sequence_lengths, recursive_times, 'r', linewidth=2)
p2 = ax.plot(sequence_lengths, dynamic_times, 'b', linewidth=2)
plt.xlabel('Sequence length')
plt.ylabel('Time')
plt.title('LCS timing')
plt.grid(True)
plt.show()
答案 1 :(得分:2)
计算处理器时间的最简单方法是使用clock()
中的time.h
函数:
clock_t start, elapsed;
start = clock();
run_test();
elapsed = clock() - start;
printf("Elapsed clock cycles: %ld\n", (long)elapsed);
由于您只是在比较不同的实现,因此您不需要将时钟转换为实时单位。
答案 2 :(得分:2)
有各种方法可以做到这一点。其中一个更简单的方法是找到一些能够实现高分辨率(微秒或更小)时间间隔的代码。在调用LCS函数的周围调用start-timer和stop-timer函数,然后打印生成的时间:
#include "timer.h"
Clock clk;
char elapsed[32];
clk_start(&clk);
lcs_recursive();
clk_stop(&clk);
printf("Elapsed time (recursive): %s\n",
clk_elapsed_us(&clk, elapsed, sizeof(elapsed)));
同样适用于lcs_dynamic()
功能。
如果单次迭代的时间太小,则在函数周围包装一个循环。我通常将时序代码放入一个函数中,然后调用它几次以获得一致的结果。
我可以指出你所说的包裹。
是的,您可以小心地将结果输入到SciPy等图形包中。显然,您必须参数化测试大小,并在每种大小上多次为代码计时。