我这样做:
from bs4 import BeautifulSoup
import urllib.request
import requests
website='http://www.website.ro/'
r=urllib.request.urlopen(website).read()
soup = BeautifulSoup(r,'lxml')
form=soup.find('form')
print(form)
假设该网站仅包含1个表格,我感兴趣的是:
<div class="search">
即表格/表格的名称/名称。 接下来,我想要的是将此表单传递给Requests.post并获取响应。 我怎样才能做到这一点? 至于请求的documentation,
r = requests.post('http://httpbin.org/post', data = {'key':'value'})
requests.post的第一个参数是 url 。有没有办法通过知道表单名称或r.text来获取表单触发的URL?
例如,mechanicalsoup的方法 select_form 不需要网址,它使用表单名称。 (我不想使用mechanicalsoup)
答案 0 :(得分:1)
我说你必须查看通过Chrome Developer工具手动触发的请求,然后使用该网址。