scala-从S3存储桶读取文件

时间:2018-10-13 14:27:00

标签: scala amazon-web-services amazon-s3 apache-spark-sql

我想从S3存储桶中读取特定文件。在我的S3存储桶中,我将有很多对象(目录和子目录)。我想遍历所有对象,并且必须仅读取该文件。

我正在尝试以下代码:

val s3Client: AmazonS3Client = getS3Client()
    try {
      log.info("Listing objects from S3")
      var counter = 0

      val listObjectsRequest = new ListObjectsRequest()
        .withBucketName(bucketName)
        .withMaxKeys(2)
        .withPrefix("Test/"+"Client_cd" + "/"+"DM1"+"/")
        .withMarker("Test/"+"Client_cd" + "/"+"DM1"+"/")
      var objectListing: ObjectListing = null
      do {
        objectListing = s3Client.listObjects(listObjectsRequest)
        import scala.collection.JavaConversions._
        for (objectSummary <- objectListing.getObjectSummaries) {
          println( objectSummary.getKey + "\t" + StringUtils.fromDate(objectSummary.getLastModified))

        }
          listObjectsRequest.setMarker(objectListing.getNextMarker())
        }
        while (objectListing.isTruncated())

    }
    catch {
      case e: Exception => {
        log.error("Failed listing files. ", e)
        throw e
      }
    }

在此路径中,我必须仅读取最近月份文件夹中的.gz文件。档案路径:

"Mybucket/Test/Client_cd/Dm1/20181010_xxxxx/*.gz"

在这里,我必须将Client_cd作为特定客户端的参数传递。

如何过滤对象并获取特定文件?

enter image description here

1 个答案:

答案 0 :(得分:0)

如果您使用的是EMR或您的S3配置正确设置,则也可以使用sc.textFile("s3://bucket/Test/Client_cd/Dm1/20181010_xxxxx/*.gz")