0

我一直在阅读 SimpleDB,一个缺点(对我来说)是每个属性限制最大 1kb。我做了很多 RSS 提要处理,我希望将提要数据存储在 SimpleDB(文章)中,据我所知,最好的方法是跨多个属性分割文章。典型的文章是 < 30kb 的纯文本。

我目前将文章数据存储在 DynamoDB(gzip 压缩)中没有任何问题,但成本相当高。希望迁移到 SimpleDB 以获得更便宜的存储和仍然快速的检索。我也将 S3 上所有 rss 文章的 json 副本存档(多年的 mysql 头痛让我对 db 保持警惕)。

有谁知道将字符串分割成 < 1kb 的片段?我假设需要将标识符附加到每个块以便重新组装。

任何想法将不胜感激!

4

2 回答 2

0

切片应该这样做。你只需要跟踪这些碎片。

>>> x = "big string with lots of words"
>>> x[2:10]
'g string'
>>> x[10:20]
' with lots'
>>> x[20:29]
' of words'
于 2013-03-15T23:38:30.207 回答
0

我选择在 Amazon S3 中存储大型文本文档(检索似乎很快),我将实施一个 EC2 实例,用于使用 S3 作为故障转移来缓存文档。

于 2013-03-17T12:35:54.303 回答