Java堆空间错误的Pyspark错误

时间:2016-08-24 12:10:32

标签: python numpy optimization pyspark

我是新手,使用 Spark 1.6.1 两名工作人员,每人内存1GB 5内核已分配,在33MB文件上运行此代码。

此代码用于在spark中索引单词。

from textblob import TextBlob as tb
from textblob_aptagger import PerceptronTagger
import numpy as np
import nltk.data
import Constants
from pyspark import SparkContext,SparkConf
import nltk

TOKENIZER = nltk.data.load('tokenizers/punkt/english.pickle')

def word_tokenize(x):
   return nltk.word_tokenize(x)

def pos_tag (s):
  global TAGGER
  return TAGGER.tag(s)

def wrap_words (pair):
  ''' associable each word with index '''
  index = pair[0]
  result = []
  for word, tag in pair[1]:
    word = word.lower()
    result.append({ "index": index, "word": word, "tag": tag})
    index += 1
  return result

if __name__ == '__main__':

  conf = SparkConf().setMaster(Constants.MASTER_URL).setAppName(Constants.APP_NAME)
  sc = SparkContext(conf=conf)
  data = sc.textFile(Constants.FILE_PATH)

  sent = data.flatMap(word_tokenize).map(pos_tag).map(lambda x: x[0]).glom()
  num_partition = sent.getNumPartitions()
  base = list(np.cumsum(np.array(sent.map(len).collect())))
  base.insert(0, 0)
  base.pop()
  RDD = sc.parallelize(base,num_partition)
  tagged_doc = RDD.zip(sent).map(wrap_words).cache()

对于较小的文件< 25MB代码工作正常,但是对于大小超过25MB的文件会出错 帮我解决这个问题或者提供这个问题的替代方案吗?

1 个答案:

答案 0 :(得分:0)

那是因为.collect()。将rdd转换为经典的python变量(或np.array)时,会丢失所有数据,所有数据都收集在同一个地方。