我正在尝试创建一个从tv catchup网站获取html的程序,然后使用split函数将所有html数据拆分为通道名称和当前在表中的程序,例如as:BBC 1 - '节目名'。我只是需要帮助我在第一次拆分功能后做的事情,如果有人可以提供帮助,那将非常感激。
import urllib2
import string
proxy = urllib2.ProxyHandler({"http" : "http://c99.cache.e2bn.org:8084"})
opener = urllib2.build_opener(proxy)
urllib2.install_opener(opener)
tvCatchup = urllib2.urlopen('http://www.TVcatchup.com')
html = tvCatchup.read()
firstSplit = html.split('<a class="enabled" href="/watch.html?c=')[1:]
for i in firstSplit:
print i
secondSplit = html.split ('1" title="BBC One"></a></li><li class="v-type" style="color:#6d6d6d;">')[1:]
for i in secondSplit:
print i
答案 0 :(得分:1)
我不会拆分输出,而是使用某种HTML解析器。 Beautiful Soup是个不错的选择。
答案 1 :(得分:0)
听起来你想要一个屏幕刮刀,而不是子串HTML。一个好的屏幕抓取工具是Scrapy,它使用XPATH来检索数据。
Scrapy at a glance页面很有用。它提供了如何从网页中提取数据的完整示例。
答案 2 :(得分:-1)
请不要使用urllib2。 请改用请求 https://github.com/kennethreitz/requests
对于html解析,请使用BeautifulSoup http://www.crummy.com/software/BeautifulSoup/bs4/doc/
注意:似乎此代理已关闭,删除代理设置,并且可以正常工作
import requests
from BeautifulSoup import BeautifulSoup
proxyDict = {"http":"http://c99.cache.e2bn.org:8084"}
r = requests.get("http://www.TVcatchup.com", proxies=proxyDict)
soup = BeautifulSoup(r.text)
tvs = list()
uls = soup.findAll("ul", { "class":"channels2"}
for ul in uls:
div = ul.find("div")
if div:
showid = div.get("showid")
link = ul.find("a")
href = link.get("href")
title = link.get("title")
tvs.append({"showid":showid, "href":href, "title":title})
print tvs
你会得到这个
[{'showid': u'450263', 'href': u'/watch.html?c=1', 'title': u'BBC One'},
{'showid': u'450353', 'href': u'/watch.html?c=2', 'title': u'BBC Two'},
{'showid': u'450398', 'href': u'/watch.html?c=3', 'title': u'ITV1'},
{'showid': u'450521', 'href': u'/watch.html?c=4', 'title': u'Channel 4'},...