我一直在努力将一些小东西上传到s3。 500个目录中约有20k个文件,总共约3GB。对于名为Simple Storage Service的服务来说,这是绝对合理的。我可以平均上传到不同的地方,大约500k / s - 1mb / s(1.8到3.6gb / h)。我一直试图将这些文件整天上传到s3,我必须在汇总时以令人沮丧的速度上传(想想大约100 mb / h)。
我试过了:
我希望你能帮助我诊断的问题如下:
真的很令人沮丧,我必须做错事。我希望一切工作速度提高10倍左右,但事实并非如此。我已经读过,如果拆分文件s3运行得更快,我已经读到该区域(我在纽约)非常重要。什么变化会让我上传速度最快?
答案 0 :(得分:3)
可能通过更改AWS服务器位置来修复慢速上传连接
我刚想通了,问题在于我的情况:上传的持续时间(大小35MB)
我的总部设在维也纳,不在美国 - >检查您的AWS服务器位置
答案 1 :(得分:-1)
上传本身非常慢
您可以尝试Bucket Explore r在数百个并行队列中上传操作,以便上传过程更快。
上传后,将所有文件公开(使用网络控制台)花了4个小时,但仍然没有完成。
您可以在存储桶上设置策略,以便公开访问对象 以下示例策略允许访问匿名用户。
{
"Id": "ds",
"Statement": [{
"Action": "s3:GetObject",
"Effect": "Allow",
"Principal": {"AWS": "*"},
"Resource": [
"arn:aws:s3:::testbucket",
"arn:aws:s3:::testbucket/*"
],
"Sid": "1"
}],
"Version": "2008-10-17"
}
披露:我是Bucket Explorer的开发者之一