我可以使用spark来解析html文件吗?

时间:2017-10-10 15:20:30

标签: html apache-spark beautifulsoup pyspark hdfs

我遇到了一个问题:

我想在 HDFS 中解析一堆html文件,我想使用 spark 来处理它们。为方便起见,我想使用 pyspark ,并且还想使用功能强大的包 BeautifulSoup 来解析html文件。我可以这样做吗?如何使用BeautifulSoup从HDFS读取文件?

1 个答案:

答案 0 :(得分:0)

假设html文件位于HDFS中,您可以将文件名列表输入到驱动程序中,并在0和作业中的执行程序数之间分配一个随机数。然后将此数据放入带并行化的rdd中。 Groupy通过随机数并执行mapPartitions。 reducer函数将通过从HDFS中以文本形式读取文件来处理分区的每一行。然后将文本传递给BeautifulSoup并进行处理。返回结果将在RDD中捕获。请记住,必须在每个工作节点上安装BeautifulSoup,否则这将无效。