我需要Amazon S3的多部分下载以获取大文件

时间:2011-01-25 14:07:38

标签: amazon-s3 multipart

我知道Amazon S3为大文件添加了多部分上传。那很棒。我还需要的是客户端的类似功能,对于那些通过下载gigabyte plus文件并有错误的客户来说。

我意识到浏览器有一定程度的重试和恢复内置,但是当你谈论大文件时,我希望能够在他们离开的地方继续,而不管出错的类型。

有什么想法吗?

谢谢, 布赖恩

4 个答案:

答案 0 :(得分:11)

如果您想构建自己的解决方案,S3支持标准HTTP“Range”标头。

S3 Getting Objects

答案 1 :(得分:2)

我使用aria2c。对于私有内容,您可以使用“GetPreSignedUrlRequest”生成可以传递给aria2c的临时私有URL

答案 2 :(得分:1)

只是针对当前情况进行更新,S3本身支持多部分GET以及PUT。 https://www.youtube.com/watch?v=uXHw0Xae2ww(拉前至26:00)。

答案 3 :(得分:0)

注意:仅限Ruby用户

从Ruby尝试aws-sdk gem,然后下载

object = AWS::S3::Object.new(...)
object.download_file('path/to/file.rb')

因为它默认下载一个包含multipart的大文件。

  

使用多部分方法

下载大于5MB的文件

http://docs.aws.amazon.com/sdkforruby/api/Aws/S3/Object.html#download_file-instance_method