使用scalding读取多个文件并输出SINGLE文件

时间:2016-12-16 11:07:32

标签: scala hadoop hdfs hadoop2 scalding

这些天我遇到了一个问题,我正在尝试使用scalding从多个文件中读取并使用单个文件创建输出。我的代码是这样的:

def getFilesSource (paths: Seq[String]) = {
    new MultipleTextLineFiles(paths: _*) {
      override protected def createHdfsReadTap(hdfsMode: Hdfs): Tap[JobConf, _, _] =  {
        val taps = goodHdfsPaths(hdfsMode).toList.map {
          path => CastHfsTap (new Hfs (hdfsScheme, path, sinkMode))
        }

        taps.size match {
          case 0 => {
            CastHfsTap (new Hfs(hdfsScheme, hdfsPaths.head, sinkMode))
          }
          case 1 => taps.head
          case _ => new ScaldingMultiSourceTap(taps)
        }
      }
    }
  }

但是当我运行这段代码时,它会将我的输出分成很多文件,但里面的数据很少:只有几K.相反,我希望能够将所有输出文件聚合成一个。

我的烫金代码是:

val source = getFilesSource(mapped) // where mapped is a Sequence of valid HDFS paths (Seq [String])

TypedPipe.from(source).map(a => Try{
  val json = JSON.parseObject(a)
  (json.getInteger("prop1"), json.getInteger("prop2"), json.getBoolean("prop3"))
}.toOption).filter(a => a.nonEmpty)
  .map(a => a.get)
  .filter(a => !a._3)
  .map (that => MyScaldingType (that._1, that._2))
  .write(MyScaldingType.typedSink(typedArgs))

我想我必须覆盖ScaldingMultiSourceTap类型的“sourceConfInit”方法,但我不知道在里面写什么...

1 个答案:

答案 0 :(得分:0)

您可以使用groupAll将所有地图输出(作业是仅地图作业)发送到单个reducer,考虑到数据很小,然后执行写入。输出将写入单个文件。

.
.
.
.filter(a => !a._3)
.map (that => MyScaldingType (that._1, that._2))
.groupAll
.write(MyScaldingType.typedSink(typedArgs))