使用jsoup解压缩https网址

时间:2012-07-05 04:40:53

标签: java web-crawler jsoup

我有以下代码,使用jsoup从给定页面中提取网址。

import org.jsoup.Jsoup;
import org.jsoup.helper.Validate;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

import java.io.IOException;

/**
 * Example program to list links from a URL.
 */
public class ListLinks {
    public static void main(String[] args) throws IOException {

        String url = "http://shopping.yahoo.com";
        print("Fetching %s...", url);

        Document doc = Jsoup.connect(url).get();
        Elements links = doc.getElementsByTag("a");


        print("\nLinks: (%d)", links.size());
        for (Element link : links) {
       print(" * a: <%s>  (%s)", link.absUrl("href") /*link.attr("href")*/, trim(link.text(), 35));     
        }
    }

    private static void print(String msg, Object... args) {
        System.out.println(String.format(msg, args));
    }

    private static String trim(String s, int width) {
        if (s.length() > width)
            return s.substring(0, width-1) + ".";
        else
            return s;
    }
}

我正在尝试做的是构建一个只提取https网站的抓取工具。我为抓取工具提供一个种子链接,然后它应该提取所有https网站,然后获取每个提取的链接并对它们执行相同操作,直到达到一定数量的已收集网址。

我的问题:上面的代码可以提取给定页面中的所有链接。我需要提取仅以https://开头的链接,为了达到这个目的,我需要做些什么?

1 个答案:

答案 0 :(得分:2)

您可以使用jsoup的选择器。它们非常强大。

doc.select("a[href*=https]");//(This is the one you are looking for)selects if value of href contatins https
doc.select("a[href^=www]");//selects if value of href starts with www
doc.select("a[href$=.com]");//selects if value of href ends with .com.

等。试验一下,你会找到正确的。