我想使用 URL 地址来抓取 24 个网页

时间:2021-04-18 16:39:03

标签: r web-scraping

我使用的是 Rstudio 版本 1.3.1093

这是任务: 我需要将一堆文本刮到一个 csv 文件中,以便分析某些单词的显示方式和位置以及单词的上下文。 我需要每周做一次,我希望避免复制粘贴我的生活。

这是我试过的: 我将 24 个网站中的每个网站的文本复制/粘贴到 csv 中。文件,然后对其进行分析。

我想知道的是: 有没有办法通过使用网站的 URL 地址从网站导入原始文本?或者,您可能对另一种有用的、耗时较少的方法有什么建议?

我从中抓取内容的链接如下所示: https://www.domstol.dk/koebenhavn/retslister/2021/4/straffesager-uge-16/

感谢您的帮助! :)

0 个答案:

没有答案