我以迭代方式和递归方式实现了深度优先搜索算法。它们都可以在小尺寸(小于1 MB)的文件上正常工作。但是,当我尝试在50 MB的文件上运行它们时,似乎递归-DFS(9秒)比使用迭代方法(至少几分钟)快得多。事实上,迭代方法需要很长时间才能完成。
我选择实现迭代DFS的唯一原因是我认为它可能比递归DFS更快。但事实并非如此。 这是预期的吗?
请注意:我已经使用java -Xmx1024m -Xms1024m -Xmn256m -Xss16m RunAlgo
来增加内存。
下面是我用来编写迭代DFS的代码。
class IterativeDFS{
long time;
LinkedList<Vertex>topological_sort_list = new LinkedList<Vertex>();
public IterativeDFS(Digraph G){
dfs(G);
}
public void dfs(Digraph G){
for(Vertex u : G.getAllVertices()){
u.set_color("WHITE");
u.set_pi(-1);
}
time = 0;
for(Vertex u : G.getAllVertices()){
if(u.get_color().equals("WHITE")){
dfs_stack(G, u);
}
}
}
public void dfs_stack(Digraph G, Vertex u){
int size = G.getAllVertices().size();
/*
* to be able to iterate over each adjacency list, keeping track of which
* vertex in each adjacency list needs to be explored next.
*/
HashMap<Vertex, Iterator<Vertex>> adj_map = new HashMap<Vertex, Iterator<Vertex>>();
for(Vertex i : G.getAllVertices()){
adj_map.put(i, G.adjEdges(i).iterator());
}
Stack<Vertex> stack = new Stack<Vertex>();
// time++; // white vertex u has just been discovered
u.set_d(time);
u.set_color("GRAY");
stack.push(u);
while(!stack.empty()){
Vertex k = stack.peek();
Vertex v = null;
if(adj_map.get(k).hasNext()){
v = adj_map.get(k).next(); // explore edges (k,v)
if(v.get_color().equals("WHITE")){
v.set_pi(k.get_node());
// time++;
v.set_d(time);
v.set_color("GRAY");
stack.push(v);
}
} else{
// v's adjacency list is exhausted
Vertex t = stack.pop();
time++;
t.set_f(time);
t.set_color("BLACK");
/*
* Topological Sort :
* 1. call DFS(G) to compute finishing times v.f for each vertex v
* 2. as each vertex is finished, insert it onto FRONT of linked list
* 3. return linked list of vertices
*/
topological_sort_list.addFirst(t);
}
}
}
public LinkedList<Vertex> topological_sort(){
return topological_sort_list;
}
}
答案 0 :(得分:1)
如果您谈论的是时间复杂性,答案是两者都相同。不管实现如何,DFS的运行时间都是O(V),因为您应该只一次访问图形中的每个顶点。此外,运行时也是Omega(V),因为无论输入大小如何,都一次访问图形中的所有顶点。这将使DFS的运行时保持在Theta(V)。 不管实现方式如何,整个DFS算法都保持相同。因此,递归DFS和迭代DFS的运行时间应该都相同,都为Theta(V)。