返回null的URL连接上的InputStreamReader

时间:2018-01-19 01:33:39

标签: java url jsoup bufferedreader inputstreamreader

我正在阅读“使用Java进行Web Scraping”一书中关于网络抓取的教程。下面的代码给了我一个nullPointerExcpetion。部分问题是(line = in.readLine())始终为null,因此第33行的while循环永远不会运行。我不知道为什么它总是无效。任何人都可以让我对此有所了解吗?此代码应打印CPython上维基百科文章的第一段。

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import java.net.*;
import java.io.*;

public class WikiScraper {
    public static void main(String[] args) {
        scrapeTopic("/wiki/CPython");
    }
    public static void scrapeTopic(String url){
        String html = getUrl("http://www.wikipedia.org/"+url);
        Document doc = Jsoup.parse(html);
        String contentText = doc.select("#mw-content-text > p").first().text();
        System.out.println(contentText);
    }
    public static String getUrl(String url){
        URL urlObj = null;
        try{
            urlObj = new URL(url);
        }
        catch(MalformedURLException e){
            System.out.println("The url was malformed!");
            return "";
        }
        URLConnection urlCon = null;
        BufferedReader in = null;
        String outputText = "";
        try{
            urlCon = urlObj.openConnection();
            in = new BufferedReader(new InputStreamReader(urlCon.getInputStream()));
            String line = "";
            while((line = in.readLine()) != null){
                outputText += line;
            }
            in.close();
        }catch(IOException e){
            System.out.println("There was an error connecting to the URL");
            return "";
        }
        return outputText;
    }
}

1 个答案:

答案 0 :(得分:1)

如果您在网络浏览器中输入small project,它将被重定向到http://www.wikipedia.org//wiki/CPython,所以

使用String html = getUrl("http://www.wikipedia.org/"+url);

代替line = in.readLine()

然后{{1}}可以真正阅读。