使用wget下载页面上的所有hulkshare / mediafire链接文件

时间:2011-09-16 04:38:15

标签: wget

所以我一直在努力设置wget从www.goodmusicallday.com下载所有的mp3。不幸的是,该网站不是由网站托管的mp3,而是将它们放在www.hulkshare.com上,然后链接到下载页面。有没有办法使用wget的递归和过滤功能,让它进入每个hulkshare页面并下载链接的mp3?

非常感谢任何帮助

2 个答案:

答案 0 :(得分:1)

所以,我的一个朋友实际上想出了一个很棒的方法,只需在终端输入以下代码:

   IFS="";function r { echo $1|sed "s/.*$2=\([^\'\"\&;]*\).*/\1/";};for l in `wget goodmusicallday.com -O-|grep soundFile`;do wget -c `r $l soundFile` -O "`r $l titles`";done

答案 1 :(得分:0)

我猜不是!!!

我曾多次尝试从mediafire下载脚本,但是徒劳无功。

这就是为什么他们没有简单的下载链接,而是连接了一个计时器!

如果您仔细注意,您会看到下载链接(我的意思是实际的文件托管服务器不是www.mediafire.com!而是类似download666.com)。

所以,我不认为wget可以实现!!

如果下载链接是简单的html链接,即a标签,Wget只能保存这一天。

此致