我住在农村地区,有一个非常多的无线ISP,因此流媒体内容(尤其是视频教程的数小时)是一个痛苦的过程。我喜欢能够在睡觉时拍摄视频,以便第二天进行审核。因此,我尝试使用wget从links.txt获取文件以在本地存储它们,然后只需使用cron作业为我安排它。不幸的是,有一个打嗝:
wget --save-cookies cookies.txt --post-data 'username=user&password=pwd' \
-erobots=off --secure-protocol=SSLv3 --no-check-certificate \
https://www.domain.com/login.aspx
wget --load-cookies cookies.txt --content-disposition
--user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) \
Gecko/2008092416 Firefox/3.0.3" -l1 -H -t1 -nd -N -np -r -A.mp4 \
-erobots=off -w5 -i ../links.txt
第一个命令成功地在相应的cookies.txt中提取网站cookie信息和故事。后者使我能够成功登录网站并开始获取内容;但是,它只检索page.html(然后由于-r A.mp4标志按预期丢弃它)。不幸的是,它没有解析page.html中的动态链接,以便获取我需要的RandomGeneratedFilename.mp4
内容。我有什么遗失的东西吗?
即使我获取了page.html文件,该链接也没有href="a/dynamic/path"
中的文件名/扩展名,因此它无法保存原因是有道理的。 MP4。但是,如何让wget以递归方式跟随该href来确定适当的文件名并保存呢?
值得庆幸的是,StackOverflow和谷歌已经帮我解决了到目前为止通过的正确标志以及如何成功验证,但我没有任何运气搞清楚最后一步。我猜测我将不得不写一个bash脚本并使用awk和sed的组合来做这件事,但老实说我不确定......
目前,我使用浏览器插件执行此操作,这是一个非常手动的过程。我可能只是简单地流式传输视频并在此时通过网站观看,如上所述,在我的情况下这不太实用。 :(
我真的很感激你们所有人可能提供的任何时间和见解,因为这将是一个巨大的福音!提前谢谢。