我正在开发一个webcrawler。目前我抓取整个内容然后使用正则表达式我删除<meta>, <script>, <style>
和其他标签并获取正文的内容。
但是,我正在尝试优化性能,我想知道是否有一种方法可以只抓取页面的<body>
?
namespace WebScrapper
{
public static class KrioScraper
{
public static string scrapeIt(string siteToScrape)
{
string HTML = getHTML(siteToScrape);
string text = stripCode(HTML);
return text;
}
public static string getHTML(string siteToScrape)
{
string response = "";
HttpWebResponse objResponse;
HttpWebRequest objRequest =
(HttpWebRequest) WebRequest.Create(siteToScrape);
objRequest.UserAgent = "Mozilla/4.0 (compatible; MSIE 6.0; " +
"Windows NT 5.1; .NET CLR 1.0.3705)";
objResponse = (HttpWebResponse) objRequest.GetResponse();
using (StreamReader sr =
new StreamReader(objResponse.GetResponseStream()))
{
response = sr.ReadToEnd();
sr.Close();
}
return response;
}
public static string stripCode(string the_html)
{
// Remove google analytics code and other JS
the_html = Regex.Replace(the_html, "<script.*?</script>", "",
RegexOptions.Singleline | RegexOptions.IgnoreCase);
// Remove inline stylesheets
the_html = Regex.Replace(the_html, "<style.*?</style>", "",
RegexOptions.Singleline | RegexOptions.IgnoreCase);
// Remove HTML tags
the_html = Regex.Replace(the_html, "</?[a-z][a-z0-9]*[^<>]*>", "");
// Remove HTML comments
the_html = Regex.Replace(the_html, "<!--(.|\\s)*?-->", "");
// Remove Doctype
the_html = Regex.Replace(the_html, "<!(.|\\s)*?>", "");
// Remove excessive whitespace
the_html = Regex.Replace(the_html, "[\t\r\n]", " ");
return the_html;
}
}
}
从Page_Load
我调用scrapeIt()
方法向其传递从页面中的文本框中获取的字符串。
答案 0 :(得分:5)
我建议利用HTML Agility Pack来进行HTML解析/操作。
您可以轻松选择这样的身体:
var webGet = new HtmlWeb();
var document = webGet.Load(url);
document.DocumentNode.SelectSingleNode("//body")
答案 1 :(得分:5)
仍然是最简单/最快(最不准确)的方法。
int start = response.IndexOf("<body", StringComparison.CurrentCultureIgnoreCase);
int end = response.LastIndexOf("</body>", StringComparison.CurrentCultureIgnoreCase);
return response.Substring(start, end-start + "</body>".Length);
显然,如果HEAD标签中有javascript,如...
document.write("<body>");
然后你最终会得到一些你想要的东西。
答案 2 :(得分:3)
我认为您最好的选择是使用轻量级HTML解析器(something like Majestic 12,它基于我的测试比HTML Agility Pack快大约50-100%)并且只处理您感兴趣的节点in(<body>
和</body>
之间的任何内容)。 Majestic 12比HTML Agility Pack更难使用,但如果您正在寻找性能,那么它肯定会对您有所帮助!
这将使您了解所要求的内容,但您仍需要下载整个页面。我不认为有办法解决这个问题。 将保存的内容实际上是为所有其他内容生成DOM节点(除了正文)。您将不得不解析它们,但您可以跳过您不想处理的节点的整个内容。
Here is a good example of how to use the M12 parser.
我没有一个如何抓住身体的准备好的例子,但我确实有一个如何只抓住链接而且很少修改它会到达那里。这是粗略的版本:
GrabBody(ParserTools.OpenM12Parser(_response.BodyBytes));
你需要打开M12 Parser(M12附带的示例项目有详细说明所有这些选项如何影响性能的评论,以及它们!):
public static HTMLparser OpenM12Parser(byte[] buffer)
{
HTMLparser parser = new HTMLparser();
parser.SetChunkHashMode(false);
parser.bKeepRawHTML = false;
parser.bDecodeEntities = true;
parser.bDecodeMiniEntities = true;
if (!parser.bDecodeEntities && parser.bDecodeMiniEntities)
parser.InitMiniEntities();
parser.bAutoExtractBetweenTagsOnly = true;
parser.bAutoKeepScripts = true;
parser.bAutoMarkClosedTagsWithParamsAsOpen = true;
parser.CleanUp();
parser.Init(buffer);
return parser;
}
解析尸体:
public void GrabBody(HTMLparser parser)
{
// parser will return us tokens called HTMLchunk -- warning DO NOT destroy it until end of parsing
// because HTMLparser re-uses this object
HTMLchunk chunk = null;
// we parse until returned oChunk is null indicating we reached end of parsing
while ((chunk = parser.ParseNext()) != null)
{
switch (chunk.oType)
{
// matched open tag, ie <a href="">
case HTMLchunkType.OpenTag:
if (chunk.sTag == "body")
{
// Start generating the DOM node (as shown in the previous example link)
}
break;
// matched close tag, ie </a>
case HTMLchunkType.CloseTag:
break;
// matched normal text
case HTMLchunkType.Text:
break;
// matched HTML comment, that's stuff between <!-- and -->
case HTMLchunkType.Comment:
break;
};
}
}
生成DOM节点很棘手,但是Majestic12ToXml class will help you do that.就像我说的那样,这绝不等同于你在HTML敏捷包中看到的3-liner,但是一旦你得到了工具,你就可以了为了获得性能成本的一小部分,可能只需要很多行代码就可以获得所需的内容。