s3cmd与python中的boto同步

时间:2014-04-05 02:17:33

标签: python boto s3cmd

我正在尝试将一些备份脚本从bash迁移到python,以便更好地处理错误。

我一直使用s3cmd同步将目录备份到s3。我希望找到一种类似的简单方法直接在python中执行此操作(可能使用boto),但到目前为止,使用subprocess.call并继续使用s3cmd似乎最简单。

有没有人建议更好的解决方案?

1 个答案:

答案 0 :(得分:2)

单独使用boto,不是一种非常简单的方法。有几个包围的软件包提供了这个功能,它们似乎都使用相同的方法:将本地文件的MD5哈希值与S3 key's etag 进行比较。

以下是如何计算本地文件的MD5哈希值(注意:将文件的全部内容加载到内存中):

print hashlib.md5(open(filename, 'rb').read()).hexdigest()
  

7bee81f4be312203c0e29d4dfe65fb0b

对于S3密钥(注意:您不能在本地创建boto.s3.key.Key;而是从存储桶中获取它:

key = bucket.get_key(path)
print key.etag
  

" 7bee81f4be312203c0e29d4dfe65fb0b"

请注意,由于某种原因,etag被引号字符包围。

要执行同步,只需在执行get / put之前检查MD5和etag是否不同。