我想找到一种自动下载整个网站页面的方式(不是整个网站只有一个页面)和页面上的所有元素,然后总结这些文件的大小。
当我说文件时,我想知道HTML,CSS,图像,本地和远程JS文件以及任何CSS背景图像的总大小。基本上是给定页面的整个页面权重。
我考虑过使用CURL,但不知道如何启用它来获取远程和本地JS文件以及CSS文件中引用的图像。
答案 0 :(得分:1)
尝试wget
:
-p
或--page-requisites
选项-l 2
--level=2
-k
--convert-links
的原始路径:wget -p -l 2 -k http://full_url/to/page.html