我一直在读SimpleDB,一个垮台(对我来说)是每个属性限制1kb。我做了很多RSS feed处理,我希望在SimpleDB(文章)中存储feed数据,从我读过的最好的方法是将文章分成几个属性。典型的文章是< 30kb的纯文本。
我目前正在将文章数据存储在DynamoDB(压缩gzip)中,没有任何问题,但成本相当高。希望通过仍然快速检索迁移到SimpleDB以获得更便宜的存储。我也在S3上存档所有rss文章的json副本(多年的mysql头痛让我对db的警惕)。
有没有人知道将字符串分为< 1kb件?我假设需要将标识符附加到每个块以便重新组装。
任何想法都会非常感激!
答案 0 :(得分:0)
切片应该这样做。你只需要跟踪这些碎片。
>>> x = "big string with lots of words"
>>> x[2:10]
'g string'
>>> x[10:20]
' with lots'
>>> x[20:29]
' of words'
答案 1 :(得分:0)
我选择在Amazon S3中存储大型文本文档(检索似乎很快),我将实现一个EC2实例,用S3缓存文档作为故障转移。