我正在阅读“使用Java进行Web Scraping”一书中关于网络抓取的教程。下面的代码给了我一个nullPointerExcpetion。部分问题是(line = in.readLine())
始终为null,因此第33行的while循环永远不会运行。我不知道为什么它总是无效。任何人都可以让我对此有所了解吗?此代码应打印CPython上维基百科文章的第一段。
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import java.net.*;
import java.io.*;
public class WikiScraper {
public static void main(String[] args) {
scrapeTopic("/wiki/CPython");
}
public static void scrapeTopic(String url){
String html = getUrl("http://www.wikipedia.org/"+url);
Document doc = Jsoup.parse(html);
String contentText = doc.select("#mw-content-text > p").first().text();
System.out.println(contentText);
}
public static String getUrl(String url){
URL urlObj = null;
try{
urlObj = new URL(url);
}
catch(MalformedURLException e){
System.out.println("The url was malformed!");
return "";
}
URLConnection urlCon = null;
BufferedReader in = null;
String outputText = "";
try{
urlCon = urlObj.openConnection();
in = new BufferedReader(new InputStreamReader(urlCon.getInputStream()));
String line = "";
while((line = in.readLine()) != null){
outputText += line;
}
in.close();
}catch(IOException e){
System.out.println("There was an error connecting to the URL");
return "";
}
return outputText;
}
}
答案 0 :(得分:1)
如果您在网络浏览器中输入small project,它将被重定向到http://www.wikipedia.org//wiki/CPython,所以
使用String html = getUrl("http://www.wikipedia.org/"+url);
代替line = in.readLine()
然后{{1}}可以真正阅读。