有一个名为http://mySPSite.com的SharePoint网站。它通常在12秒内在客户端完全下载图像,CSS和JavaScript文件。我希望使用PowerShell监控完整的请求,以便模拟所有页面的下载,其方式与浏览器完全相同。
实现这一目标的适当方法是什么?
答案 0 :(得分:0)
我猜你可以用这个:
http://www.howtogeek.com/124736/stupid-geek-tricks-extract-links-off-any-webpage-using-powershell/
用于访问网站中的所有链接和图像并使用它们创建数组。然后使用此脚本在looop中下载它们:
$url = "http://website.com/downloads/Iwantthisfile.txt"
$path = "C:\temp\thisisthefile.txt"
#param([string] $ url,[string] $ path)
if(!(Split-Path -parent $path) -or !(Test-Path -pathType Container (Split-Path -parent $path))) {
$path = Join-Path $pwd (Split-Path -leaf $path)
}
"Downloading [$url]`nSaving at [$path]"
$client = new-object System.Net.WebClient
$client.DownloadFile($url, $path)
#$client.DownloadData($url, $path)
$path