我有一个每三分钟运行一次的 cron 作业,它从远程 API 中提取一些数据,然后将其存储在我的本地数据存储中。但是,这会在数据存储放置操作中占用大量 CPU 时间。我怀疑我可能正在做一些非常愚蠢的事情,可以进行很多优化:
result = urllib2.urlopen(url).read()
foos = json.loads(result)['foo']
bars = json.loads(result)['bar']
models = []
for foo in foos:
d = FooContainer()
d.Property = foo.Value #in real code, this is setting a load of values based off foo
models.append(d)
for bar in bars:
d = BarContainer()
d.Property = bar.Value #in real code, this is setting a load of properties based off bar
models.append(d)
db.put(models)
如您所见,我将返回的每条数据作为新“行”存储在本地数据存储表中。有什么技术可以用来减少这个 cron 作业使用的大量数据存储 CPU 时间吗?