从谷歌云存储读取 .txt 文件

时间:2021-06-22 05:47:41

标签: python apache-spark pyspark google-cloud-storage rdd

我是谷歌云平台和 Spark 的新手。我正在尝试从谷歌云存储读取 .txt 文件。但是将其下载为 blob 对象后,我无法对其进行迭代。我的要求是将文件作为一个简单的 txt 文件逐行读取。请看下面的代码:


import pyspark
from pyspark import SparkConf, SparkContext
from google.cloud import storage
import sys
conf=SparkConf().setMaster("local").setAppName("Popular Movies")
sc=SparkContext(conf=conf)

bucket_name = (sys.argv[1])
destination_blob_name = (sys.argv[2])

storage_client = storage.Client()
bucket = storage_client.bucket(bucket_name)
blob = bucket.blob(destination_blob_name)
 
downloaded_blob = blob.download_as_string()
print(downloaded_blob)


print(blob)
def loadMovieNames():
    movies={}
    for line in blob:
        fields=line.split("|")
        print(fields)
        movies[int(fields[0])]=fields[1]
    return movies

myMovies=loadMovieNames()
myRDD=sc.parallelize([myMovies])

print(myRDD.collect())

1 个答案:

答案 0 :(得分:1)

由于您已经将 blob 转换为字符串,因此您只需对该字符串应用 splitlines() 以逐行遍历它。

def loadMovieNames():
    movies = {}
    for line in downloaded_blob.splitlines():
        fields = line.split("|")
        print(fields)
        movies[int(fields[0])] = fields[1]
    return movies

它的作用是将单个字符串拆分为一个列表,在换行符处拆分。

另外,对于您的下一个问题,请准确提供您当前代码的情况。提供源数据(例如,您从 GCS 下载的文件的清理内容)也有很大帮助,因为社区无需猜测。

记住,问题越好,答案就越好......