标签: downloading-website-files
我想下载一个网站,将其白化为专用网络。
我知道StackOverflow本身已经做了很多,我自己也不知道该怎么做。
我想下载的具体网站是CPP-QUIZ,其中包含所有问题和解释。
我已经尝试过使用HTTrack,但似乎只下载了几个问题然后就失败了。
通常做什么来做这样的事情?
答案 0 :(得分:0)
您可以使用wget或curl等工具。如果网站有索引,那么你可以使用wget的递归选项。好像它没有(主页似乎随机选择了一个特定网站的问题)。
在这种情况下,您可以开始生成命令:
wget http://cppquiz.org/quiz/question/1 wget http://cppquiz.org/quiz/question/2 wget http://cppquiz.org/quiz/question/3
等等。运行这些命令后,您可以将文件下载到运行命令的目录中。