我正在制作一个使用提要分析器的脚本,该脚本不断检查RSS提要是否有任何更新。它工作正常,但我正在寻求提高效率。目前,我正在运行6-7个不同的脚本,每个脚本有5-6个RSS提要,以确保我尽快得到更新。我知道可能有更好的方法可以做到这一点,但是我对python还是很陌生,所以我不确定。我已经简要地研究了多处理,但是我不愿意失去速度(甚至不到几分之一秒),因为那是程序的全部目的。预先感谢您的任何建议。
import feedparser
def rss_scrape(site, iteration):
rss = feedparser.parse(site)
for post in rss.entries:
if post.link not in links:
links.append(post.link)
if iteration != 0:
print(web_pages[site], get_time(), post.title, post.link)
web_pages = {'https://www.example.com/rss1':'example_1',
'https://www.example.com/rss2':'example_2',
'https://www.example.com/rss3':'example_3',
'https://www.example.com/rss4':'example_4',
'https://www.example.com/rss5':'example_5'}
links = []
count = 0
while True:
try:
for item in list(web_pages.keys():
rss_scrape(item, count)
count = count + 1
except KeyboardInterrupt:
exit()