使用wget保存单个页面

时间:2013-11-12 15:28:36

标签: caching wget

我想将单个网址保存为可浏览的html。 例如。我想保存digg.com或yahoo.com的第一页,但到目前为止,wget遍历所有链接并节省了超过必要的页面。

我希望wget只保存digg的主页,没有任何外部链接,就像google的缓存一样:http://webcache.googleusercontent.com/search?q=cache%3Adigg.com&oq=cache%3Adigg.com&aqs=chrome..69i57j69i58.4306j0j1&sourceid=chrome&ie=UTF-8

1 个答案:

答案 0 :(得分:1)

wget --adjust-extension --span-hosts --convert-links --backup-converted --page-requisites [url]

来自:https://superuser.com/questions/55040/save-a-single-web-page-with-background-images-with-wget

指定链接级别深度使用--level=depth