首先,我知道在SO中有很多与此类似的问题。在过去的一周里,我读过大多数(如果不是全部的话)。但我仍然无法为我做这项工作。
我正在开发一个Ruby on Rails应用程序,允许用户将mp3文件上传到Amazon S3。上传本身效果很好,但进度条会大大改善网站上的用户体验。
我正在使用aws-sdk gem,这是来自亚马逊的官方宝石。我在其文档中随处可见上传过程中的回调,但我找不到任何东西。
文件一次一个地上传到S3,因此无需将其加载到内存中。无需多文件上传。
我认为我可能需要使用JQuery来完成这项工作,我对此很好。 我发现这看起来很有希望:https://github.com/blueimp/jQuery-File-Upload 我甚至试着按照这里的例子:https://github.com/ncri/s3_uploader_example
但我无法让它适合我。
aws-sdk的文档还简要描述了带有块的流式上传:
obj.write do |buffer, bytes|
# writing fewer than the requested number of bytes to the buffer
# will cause write to stop yielding to the block
end
但这几乎没有帮助。如何“写入缓冲区”?我尝试了一些直观的选项,这些选项总会导致超时。我如何根据缓冲更新浏览器?
对此有更好或更简单的解决方案吗?
提前谢谢你。 我很感激这方面的任何帮助。
答案 0 :(得分:10)
将块传递给#write时产生的“buffer”对象是StringIO的一个实例。您可以使用#write或#<<来写入缓冲区。以下是使用块表单上传文件的示例。
file = File.open('/path/to/file', 'r')
obj = s3.buckets['my-bucket'].objects['object-key']
obj.write(:content_length => file.size) do |buffer, bytes|
buffer.write(file.read(bytes))
# you could do some interesting things here to track progress
end
file.close
答案 1 :(得分:2)
在阅读AWS gem的源代码后,我已经调整(或主要是复制)分段上传方法,以根据已上传的块数来产生当前进度
s3 = AWS::S3.new.buckets['your_bucket']
file = File.open(filepath, 'r', encoding: 'BINARY')
file_to_upload = "#{s3_dir}/#{filename}"
upload_progress = 0
opts = {
content_type: mime_type,
cache_control: 'max-age=31536000',
estimated_content_length: file.size,
}
part_size = self.compute_part_size(opts)
parts_number = (file.size.to_f / part_size).ceil.to_i
obj = s3.objects[file_to_upload]
begin
obj.multipart_upload(opts) do |upload|
until file.eof? do
break if (abort_upload = upload.aborted?)
upload.add_part(file.read(part_size))
upload_progress += 1.0/parts_number
# Yields the Float progress and the String filepath from the
# current file that's being uploaded
yield(upload_progress, upload) if block_given?
end
end
end
compute_part_size方法定义为here,我已将其修改为:
def compute_part_size options
max_parts = 10000
min_size = 5242880 #5 MB
estimated_size = options[:estimated_content_length]
[(estimated_size.to_f / max_parts).ceil, min_size].max.to_i
end
此代码在Ruby 2.0.0p0上进行了测试