使用JAVA解析网站HTML

时间:2012-01-30 22:11:37

标签: java html scrape

我想解析一个简单的网站并从该网站上抓取信息。

我曾经用DocumentBuilderFactory解析XML文件,我试图对html文件做同样的事情,但它总是陷入无限循环。

    URL url = new URL("http://www.deneme.com");
    URLConnection uc = url.openConnection();

    InputStreamReader input = new InputStreamReader(uc.getInputStream());
    BufferedReader in = new BufferedReader(input);
    String inputLine;

     FileWriter outFile = new FileWriter("orhancan");
     PrintWriter out = new PrintWriter(outFile);

    while ((inputLine = in.readLine()) != null) {
        out.println(inputLine);
    }

    in.close();
    out.close();

    File fXmlFile = new File("orhancan");
    DocumentBuilderFactory dbFactory = DocumentBuilderFactory.newInstance();
    DocumentBuilder dBuilder = dbFactory.newDocumentBuilder();
    Document doc = dBuilder.parse(fXmlFile);


    NodeList prelist = doc.getElementsByTagName("body");
    System.out.println(prelist.getLength());

问题是什么?或者有没有更简单的方法从网站上获取给定html标签的数据?

3 个答案:

答案 0 :(得分:85)

有一种更简单的方法可以做到这一点。我建议使用JSoup。使用JSoup,您可以执行类似

的操作
Document doc = Jsoup.connect("http://en.wikipedia.org/").get();
Elements newsHeadlines = doc.select("#mp-itn b a");

或者如果你想要身体:

Elements body = doc.select("body");

或者如果您想要所有链接:

Elements links = doc.select("body a");

您不再需要获取连接或处理流。简单。如果您曾经使用过jQuery,那么它就非常相似。

答案 1 :(得分:21)

肯定JSoup就是答案。 ; - )

答案 2 :(得分:5)

HTML并不总是有效且格式良好的XML。尝试使用特殊的HTML解析器而不是XML解析器。有几种不同的可用:

http://java-source.net/open-source/html-parsers