我目前正在研究深度优先搜索算法,虽然我已经确认它确实在O(N + M)中运行但是当我测量运行时它仍然没有很好地显示,因为在图表中2000到16000个节点,以及恒定的50000个边缘。运行时几乎保持不变(接近0.5秒),好像节点没有做太多。有没有办法在不增加太多节点的情况下在运行时进行更重大的更改?
我在Python中使用了一个实现,并使用命令“time”来测量运行时。
答案 0 :(得分:1)
问题可能是Python的开销相对较高(阅读和分析程序)。看看这个问题:How can you profile a python script?。
更具体地说,
python -m cProfile myscript.py
应该显示在实际执行DFS的函数上花费的总时间(tottime
)。