0

所以在我的应用程序中我有一个图形搜索问题(请参阅我以前的问题)。我使用的算法中令人讨厌的部分之一是我必须将整个 ndb 数据库读入内存(大约 5500 个实体,数据存储统计中的大小为 1mb)。一切正常

nodeconns=JumpAlt.query().fetch(6000)

但如果先检查缓存,我会更喜欢它......这样做

nodeconns=ndb.get_multi(JumpAlt.query().fetch(keys_only=True))

离线工作,但在线生成以下错误:“超过 172.891 MB 的软专用内存限制”

speedwise 正常查询很好,但我有点担心每个从数据存储区生成 5500 次读取的用户都会很快吃掉我的配额:)

所以,我的问题是,(1)get_multi 的内存开销这么大正常吗?(2) 为每个用户读取整个数据库是否愚蠢?

4

0 回答 0