我正在寻找Python中的一些代码,允许我从S3执行多部分下载大型文件。我找到了这个github page,但它太复杂了,所有的命令行参数传递和解析器以及其他让我很难理解代码的东西。我不是在寻找任何花哨的东西,而是想要一个基本代码,这样我就可以静态地将2-3个文件名放入其中并让它执行这些文件的多部分下载。
任何人都可以向我提供这样的解决方案或链接吗?或者也许帮我清理上面发布的链接中的代码?
答案 0 :(得分:0)
这很老了,但这是我为使其正常工作所做的事情:
conn.download_file(
Bucket=bucket,
Filename=key.split("/")[-1],
Key=key,
Config=boto3.s3.transfer.TransferConfig(
max_concurrency=parallel_threads
)
)
这是我在一些不错的可视代码中使用它的方式:
import boto3
import math
import os
import time
def s3_get_meta_data(conn, bucket, key):
meta_data = conn.head_object(
Bucket=bucket,
Key=key
)
return meta_data
def s3_download(conn, bucket, key, parallel_threads):
start = time.time()
md = s3_get_meta_data(conn, bucket, key)
chunk = get_cunks(md["ContentLength"], parallel_threads)
print("Making %s parallel s3 calls with a chunk size of %s each..." % (
parallel_threads, convert_size(chunk))
)
cur_dir = os.path.dirname(os.path.realpath(__file__))
conn.download_file(
Bucket=bucket,
Filename=key.split("/")[-1],
Key=key,
Config=boto3.s3.transfer.TransferConfig(
max_concurrency=parallel_threads
)
)
end = time.time() - start
print("Finished downloading %s in %s seconds" % (key, end))
def convert_size(size_bytes):
if size_bytes == 0:
return "0B"
size_name = ("B", "KB", "MB", "GB", "TB", "PB", "EB", "ZB", "YB")
i = int(math.floor(math.log(size_bytes, 1024)))
p = math.pow(1024, i)
s = round(size_bytes / p, 2)
return "%s %s" % (s, size_name[i])
def get_cunks(size_bytes, desired_sections):
return size_bytes / desired_sections
session = boto3.Session(profile_name="my_profile")
conn = session.client("s3", region_name="us-west-2")
s3_download(
conn,
"my-bucket-name",
"my/key/path.zip",
5
)
可以将更多信息提供给Config参数,请在aws文档中对其进行阅读: