我有一个遭到黑客攻击的网站。我们恢复了它,一切似乎都很好。但谷歌一直说网站上的其中一个页面仍在提供恶意链接。但他们不会具体说出哪一页。所以我的问题是,有没有办法下载所有网站文件并进行字符串搜索?
如果可能的话,我想在localhost上这样做。
答案 0 :(得分:0)
我广泛使用这个bash函数进行字符串搜索:
vgrep()
{
find . -name .repo -prune -o -name .git -prune -o -type f -name "*" -print0 | xargs -0 grep --color -n "$@"
}
在你的〜/ .bashrc中添加它然后获取它:
source ~/.bashrc
它将在当前目录中递归搜索字符串,然后它将打印文件和匹配行。
vgrep -i "http://suspicious.com" # -i: case insensitive
它接受grep regex参数''而不是""。