所以大约14小时前,我确实在我的S3存储桶中对2个文件夹(相对较大的10.5 TiB和200 GiB)运行了恢复命令
s3cmd restore --recursive --restore-days=4 -restore-priority=bulk s3://mybucket/folder1/
s3cmd restore --recursive --restore-days=4 -restore-priority=bulk s3://mybucket/folder2/
现在我想用
将两个文件夹复制到另一个存储桶aws s3 sync s3://mybucket/folder1/ s3://mybucket2/
和
aws s3 sync s3://mybucket/folder2/ s3://mybucket2/
但是aws cli告诉我所有的Object都是存储类GLACIER,我必须先恢复它们。这就是我以为我做的。当我在网络界面中查看它们时,它们似乎已经恢复,并且它们已经有一个到期日期。截止日期为Apr 14, 2018 2:00:00 AM GMT+0200
所以超过4天(我正在写这个Apr 9, 2018 10:30:00 AM GMT+0200
时)这意味着这些对象仅在Apr 10, 2018 2:00:00 AM GMT+0200
上可用以符合4天的恢复时间?
进行了几项修改:
A)
我至少认为为什么到期日期超过4天,因为AWS总是将日期舍入到下一个UTC午夜,在这种情况下是Apr 14, 2018 2:00:00 AM GMT+0200
b)中
此外,它试图通过网络界面下载文件,这可以顺利运行
c)中
当我使用aws s3api head-object --bucket mybucket --key folder1/part1.file
获取元数据时,这是响应:
{
"Restore": "ongoing-request=\"false\", expiry-date=\"Sat, 14 Apr 2018 00:00:00 GMT\"",
"AcceptRanges": "bytes",
"ContentType": "binary/octet-stream",
"LastModified": "Wed, 20 Dec 2017 15:02:48 GMT",
"ContentLength": 59408357,
"ETag": "\"49b981b95eaf62abed0880c0db7c1200-8\"",
"StorageClass": "GLACIER",
"Metadata": {}
}
似乎应该如何。
d)
当我尝试使用aws s3 cp s3://mybucket/folder1/part1.file s3://mybucket2/
进行复制时,它可以正常工作但是--recursive不起作用aws s3 cp --recursive s3://mybucket/folder1/ s3://mybucket2/
答案 0 :(得分:1)
我遇到了同样的问题,以下命令对我有用:
<!-- (c) 2005, 2019. Authorize.Net is a registered trademark of CyberSource Corporation -->
<div class="AuthorizeNetSeal">
<script type="text/javascript" language="javascript">var ANS_customer_id = "my-customer-id";</script>
<script type="text/javascript" language="javascript" src="//verify.authorize.net:443/anetseal/seal.js"></script>
</div>
答案 1 :(得分:0)
如果该对象已经被冰川还原,则与--force-glacier-transfer同步的s3应该可以正常工作