以迭代方式以libsvm格式保存数据帧

时间:2017-05-11 22:38:33

标签: apache-spark pyspark apache-spark-sql spark-dataframe apache-spark-mllib

我需要以libsvm格式迭代保存数据帧。我的代码是这样的

im_df = im_table.select("m_id", "fsz", "fnm")
all_recs_df = None
fake_df = None
firstRec = True
for eachRec in (im_df.rdd.zipWithIndex().map(lambda ((mi, fs, fn), i): (mi, fs, fn)).collect()):
    m_id = eachRec[0]
    fsz = eachRec[1]
    fnm = eachRec[2]

    volume_df = volume_table.select("id","m_id").filter(volume_table['m_id']==m_id)
    m_bytes = 0
    for eachVolRec in (volume_df.rdd.zipWithIndex().map(lambda ((id), i): (id)).collect()):
        each_v_id = eachVolRec[0]
        volume_m_id = eachVolRec[1]
        vsnp_df = vsnp_table.select("v_id","ssb").filter(vsnp_table['v_id']==each_v_id)
        vsnp_sum_df = vsnp_df.groupBy("v_id").agg(sum("ssb").alias("ssb_sum"))
        v_bytes = vsnp_sum_df.rdd.zipWithIndex().map(lambda ((vi, vb), i): (vi, vb)).collect()[0][1]
        print "\t total = %s" %(v_bytes)
        m_bytes += v_bytes

    print "im.fnm = %s, im.fsz = %s , total_snaphot_size_bytes: %s" %(fnm, fsz, m_bytes)
    if firstRec:
        firstRec = False
        all_recs_df = sqlContext.createDataFrame(sc.parallelize([Row(features=Vectors.dense(fsz, m_bytes), label=0.0)]))
        fake_df = sqlContext.createDataFrame(sc.parallelize([Row(features=Vectors.dense(fsz, 1000 * m_bytes), label=1.0)]))
        all_recs_df = all_recs_df.unionAll(fake_df)
        all_recs_df.registerTempTable("temp_table")
    else:
        each_rec_df = sqlContext.createDataFrame(sc.parallelize([Row(features=Vectors.dense(fsz, m_bytes), label=0.0)]))
        all_recs_df = sqlContext.sql("select * from temp_table")
        all_recs_df = all_recs_df.unionAll(each_rec_df)
        all_recs_df.registerTempTable("temp_table")

现在运行命令all_recs_df = sqlContext.sql("select * from temp_table")会出现错误no such table temp_table

并运行命令all_recs_df.collect()会出现错误'NoneType' object has no attribute 'collect'

一旦程序退出all_recs_df循环,显然temp_tablefor已脱离上下文。

问题:那么迭代保存libsvm格式的数据帧的替代方法是什么

我尝试立即将数据帧保存到磁盘,但我无法将数据附加到同一个文件

MLUtils.saveAsLibSVMFile(d, "/tmp/test1")

这里d是LabeledPoint RDD。在for循环中运行上述命令会产生Output directory file:/tmp/test1 already exists

问题:有没有办法将数据附加到现有的libsvm格式文件

1 个答案:

答案 0 :(得分:1)

  

我尝试立即将数据帧保存到磁盘,但我无法将数据附加到同一个文件

     

MLUtils.saveAsLibSVMFile(d," / tmp / test1")

     

这里d是LabeledPoint RDD。在for循环中运行上面的命令给出了Output目录文件:/ tmp / test1已经存在

     

问题:有没有办法将数据附加到现有的libsvm格式文件

您可以将文件保存并覆盖为here,但MLUtils.saveAsLibSVMFile()不会处理它们。

使用MLUtils.saveAsLibSVMFile()我认为你不能覆盖现有文件。

因此,以下代码不会将数据附加到现有的libsvm格式文件,但它是一个循环,您可以将每个周期获得的数据与之前周期所获得的数据相结合,因此,最后你将保存一个文件:

from pyspark.mllib.regression import LabeledPoint
from pyspark.mllib.util import MLUtils

yourRDD = sc.emptyRDD() # start with an empty RDD

for elem in xrange(0,3): # your loop
    rdd_aux = sc.parallelize([LabeledPoint(elem,[elem*2,elem*3])]) #just an example
    #store and overwrite your new data in an auxiliary RDD at every cycle 
    yourRDD = yourRDD.union(rdd_aux) # combine your RDD_aux with the RDD that you want to make longer at every cycle

#yourRDD.take(3)
#[LabeledPoint(0.0, [0.0,0.0]), LabeledPoint(1.0, [2.0,3.0]), LabeledPoint(2.0, [4.0,6.0])]

MLUtils.saveAsLibSVMFile(yourRDD,"/your/path")

通过这种方式,您可以将新RDD附加到以前的RDD,然后保存单个文件,而不是将新数据附加到现有文件中。