我正在尝试从“ https://www.wunderground.com/personal-weather-station/dashboard?ID=KMAHADLE7#history/tdata/s20170201/e20170201/mcustom.html”天气地下页面中抓取历史天气数据。我有以下代码:
import pandas as pd
page_link = 'https://www.wunderground.com/personal-weather-station/dashboard?ID=KMAHADLE7#history/tdata/s20170201/e20170201/mcustom.html'
df = pd.read_html(page_link)
print(df)
我有以下答复:
Traceback (most recent call last):
File "weather_station_scrapping.py", line 11, in <module>
result = pd.read_html(page_link)
File "/anaconda3/lib/python3.6/site-packages/pandas/io/html.py", line 987, in read_html
displayed_only=displayed_only)
File "/anaconda3/lib/python3.6/site-packages/pandas/io/html.py", line 815, in _parse raise_with_traceback(retained)
File "/anaconda3/lib/python3.6/site-packages/pandas/compat/__init__.py", line 403, in raise_with_traceback
raise exc.with_traceback(traceback)
ValueError: No tables found
尽管,该页面显然有一个表,但read_html并未选择该表。我尝试使用Selenium,以便在阅读页面之前可以加载该页面。
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
driver = webdriver.Firefox()
driver.get("https://www.wunderground.com/personal-weather-station/dashboard?ID=KMAHADLE7#history/tdata/s20170201/e20170201/mcustom.html")
elem = driver.find_element_by_id("history_table")
head = elem.find_element_by_tag_name('thead')
body = elem.find_element_by_tag_name('tbody')
list_rows = []
for items in body.find_element_by_tag_name('tr'):
list_cells = []
for item in items.find_elements_by_tag_name('td'):
list_cells.append(item.text)
list_rows.append(list_cells)
driver.close()
现在,问题在于它找不到“ tr”。我将不胜感激任何建议。
答案 0 :(得分:1)
您可以使用requests
并避免打开浏览器。
您可以使用以下方法获取当前状况:
,从左侧开始'jQuery1720724027235122559_1542743885014('
,从右侧开始')'
。然后处理json字符串。
您可以通过使用以下代码调用API来获取摘要和历史记录
然后,您需要从前面剥去'jQuery1720724027235122559_1542743885015('
,从右边剥去');'
。然后,您可以解析一个JSON字符串。
JSON示例:
您可以通过使用浏览器中的F12开发工具并检查“网络”标签中的页面加载期间创建的流量来找到这些URL。
current
的示例,注意到JSON中的nulls
似乎有问题,因此我将替换为"placeholder"
:
import requests
import pandas as pd
import json
from pandas.io.json import json_normalize
from bs4 import BeautifulSoup
url = 'https://stationdata.wunderground.com/cgi-bin/stationlookup?station=KMAHADLE7&units=both&v=2.0&format=json&callback=jQuery1720724027235122559_1542743885014&_=15'
res = requests.get(url)
soup = BeautifulSoup(res.content, "lxml")
s = soup.select('html')[0].text.strip('jQuery1720724027235122559_1542743885014(').strip(')')
s = s.replace('null','"placeholder"')
data= json.loads(s)
data = json_normalize(data)
df = pd.DataFrame(data)
print(df)
答案 1 :(得分:1)
这是使用硒实现浏览器自动化的解决方案
from selenium import webdriver
import pandas as pd
driver = webdriver.Chrome(chromedriver)
driver.implicitly_wait(30)
driver.get('https://www.wunderground.com/personal-weather-station/dashboard?ID=KMAHADLE7#history/tdata/s20170201/e20170201/mcustom.html')
df=pd.read_html(driver.find_element_by_id("history_table").get_attribute('outerHTML'))[0]
Time Temperature Dew Point Humidity Wind Speed Gust Pressure Precip. Rate. Precip. Accum. UV Solar
0 12:02 AM 25.5 °C 18.7 °C 75 % East 0 kph 0 kph 29.3 hPa 0 mm 0 mm 0 0 w/m²
1 12:07 AM 25.5 °C 19 °C 76 % East 0 kph 0 kph 29.31 hPa 0 mm 0 mm 0 0 w/m²
2 12:12 AM 25.5 °C 19 °C 76 % East 0 kph 0 kph 29.31 hPa 0 mm 0 mm 0 0 w/m²
3 12:17 AM 25.5 °C 18.7 °C 75 % East 0 kph 0 kph 29.3 hPa 0 mm 0 mm 0 0 w/m²
4 12:22 AM 25.5 °C 18.7 °C 75 % East 0 kph 0 kph 29.3 hPa 0 mm 0 mm 0 0 w/m²
由于发生了什么事,请进行细致的编辑,因为上述单行代码实际上并不是很好的自记录代码:
设置驱动程序后,我们选择带有其ID值的表(感谢此站点实际上使用了合理的描述性ID)
tab=driver.find_element_by_id("history_table")
然后,从该元素中获取HTML而不是Web驱动程序元素对象
tab_html=tab.get_attribute('outerHTML')
我们使用熊猫来解析html
tab_dfs=pd.read_html(tab_html)
来自docs:
“ read_html返回DataFrame对象的列表,即使仅存在 HTML内容中包含一个表格”
因此,我们使用唯一的表索引到该列表,索引为零
df=tab_dfs[0]