完成 100000 个(用户,密码)元组插入需要很长时间。
def insertdata(db,name,val):
i = db.insert()
i.execute(user= name, password=val)
#-----main-------
tuplelist = readfile("C:/py/tst.txt") #parse file is really fast
mydb = initdatabase()
for ele in tuplelist:
insertdata(mydb,ele[0],ele[1])
哪个功能需要更多时间?有没有办法在 python 中测试瓶颈?我可以通过缓存和稍后提交来避免这种情况吗?</p>