从tcpdump重新创建一个站点?

时间:2012-02-15 08:45:05

标签: perl url extraction tcpdump

这是一个很长的故事,但我正试图从尖头发老板那里保存一个内部网站,他们再也看不到它的价值了,将来会在某个时刻点击这个开关。我觉得所包含的信息很重要,后代也希望使用它。不,这不是一些成人网站,但由于它是一些大公司,我不能再说了。

问题是,该网站是一堆乱七八糟的ASP和Flash,只能在IE7下工作,并且在IE8和32bit下只有偶数。所有的网址都是会话风格,并且都是胡言乱语。 flash对象本身通过GET请求向ASP对象提取额外信息。它真的很难用于刮擦。 :)

所以我的想法是在浏览整个网站时执行tcpdump。然后以某种方式将每个GET的结果转储到sql数据库中。然后稍微搞乱主机文件,将每个请求重定向到某个cgi脚本,该脚本将在数据库中查找匹配的get请求并返回数据。因此整个站点将位于URL /数据密钥对中的SQL数据库中。平面文件也可以工作。

理论上,我认为这是解决这个问题的唯一方法。我看到的唯一问题是,如果他们做一些客户端ActiveX / Flash的东西,生成的会话URL每次都会有所不同。

无论如何,我知道Perl,并且使用正确的模块这个想法似乎很简单,所以我认为我可以完成大部分工作,但在开始之前我对任何其他想法持开放态度。也许这已经存在了?

感谢您的任何意见。

1 个答案:

答案 0 :(得分:2)

要捕获我不会使用tcpdump,而是使用抓取工具本身或可以调整以保存所有内容的webproxy,例如FiddlerSquidmod_proxy