Python获取网页数据

时间:2012-12-20 10:27:24

标签: python

我正在尝试创建一个从tv catchup网站获取html的程序,然后使用split函数将所有html数据拆分为通道名称和当前在表中的程序,例如as:BBC 1 - '节目名'。我只是需要帮助我在第一次拆分功能后做的事情,如果有人可以提供帮助,那将非常感激。

import urllib2
import string


proxy = urllib2.ProxyHandler({"http" : "http://c99.cache.e2bn.org:8084"})

opener = urllib2.build_opener(proxy)

urllib2.install_opener(opener)

tvCatchup = urllib2.urlopen('http://www.TVcatchup.com')

html = tvCatchup.read()

firstSplit = html.split('<a class="enabled" href="/watch.html?c=')[1:]
for i in firstSplit:
    print i

secondSplit = html.split ('1" title="BBC One"></a></li><li class="v-type" style="color:#6d6d6d;">')[1:]

for i in secondSplit:
print i

3 个答案:

答案 0 :(得分:1)

我不会拆分输出,而是使用某种HTML解析器。 Beautiful Soup是个不错的选择。

答案 1 :(得分:0)

听起来你想要一个屏幕刮刀,而不是子串HTML。一个好的屏幕抓取工具是Scrapy,它使用XPATH来检索数据。

Scrapy at a glance页面很有用。它提供了如何从网页中提取数据的完整示例。

答案 2 :(得分:-1)

请不要使用urllib2。 请改用请求 https://github.com/kennethreitz/requests

对于html解析,请使用BeautifulSoup http://www.crummy.com/software/BeautifulSoup/bs4/doc/

注意:似乎此代理已关闭,删除代理设置,并且可以正常工作

import requests
from BeautifulSoup import BeautifulSoup

proxyDict = {"http":"http://c99.cache.e2bn.org:8084"}
r = requests.get("http://www.TVcatchup.com", proxies=proxyDict)

soup = BeautifulSoup(r.text)
tvs = list()

uls = soup.findAll("ul", { "class":"channels2"}
for ul in uls:
   div = ul.find("div")
   if div:
       showid = div.get("showid")
       link = ul.find("a")
       href = link.get("href")
       title = link.get("title")
       tvs.append({"showid":showid, "href":href, "title":title})
print tvs

你会得到这个

[{'showid': u'450263', 'href': u'/watch.html?c=1', 'title': u'BBC One'}, 
{'showid': u'450353', 'href': u'/watch.html?c=2', 'title': u'BBC Two'}, 
{'showid': u'450398', 'href': u'/watch.html?c=3', 'title': u'ITV1'}, 
{'showid': u'450521', 'href': u'/watch.html?c=4', 'title': u'Channel 4'},...