问题标签 [bulkupdate]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
mongodb - MongoDB 3.2 Update Field name in embedded array
Im trying to do a i migration in my MongoDB. I have updated a Field from Content -> StringContent. Now I want to update all records that exists with the new Field name.
This is how a document looks like.
I have created this script:
This Does not update anything, but if I change bulk.operations
-> to explicit set index on array like this, it will do the job. but only for one card :
What am i missing in my script so this can iterates over several documents and change Content-> StringContent in each Card. ?
EDIT
I have added a bulk.getOperations();
in my script. this is what it returns. Should it not have replaced $
with index ?
python - 对象遍历后批量清除ManyToMany
我有以下数据模型:
现在我有一个 ArticleSet 并想清除(而不是删除!)其中的所有附件。以下将起作用:
但是,这将导致 article_set 中每篇文章的数据库查询。有没有办法在一次调用数据库中做同样的事情?我正在使用 Django 1.11。
ps 这个问题与如何根据过滤器删除多对多关系中的多个对象有关?,但在那个问题中,在删除关系之前没有模型遍历。
ruby-on-rails - Rails 4批量更新模型数组
我有一个 ActiveRecord 模型数组,我想重新编号一列并批量更新它们。代码如下所示:
但这会创建 N 个 SQL 语句,我想要 1,有没有办法做到这一点?
amazon-web-services - 使用大数据解决方案在双方匹配唯一ID时替换S3文件中的内容
我正在尝试探索一个用例,例如“我们在文件中有大量数据(50B 条记录),每个文件有大约 50M 条记录,每条记录都有一个唯一标识符。文件 10 中存在的记录也可能存在于文件 100 中,但该记录的最新状态存在于文件 100 中。文件位于 AWS S3 中。
现在假设 50B 记录中的大约 1B 记录需要重新处理,一旦重新处理完成,我们需要识别曾经有这些 1B 记录的所有文件,并将这些文件的内容替换为这些 1B 唯一 ID。
挑战:目前,我们没有一个映射来告诉哪个文件包含所有唯一 ID。并且整个文件替换需要在一天内完成,这意味着我们需要并行执行。
我们已经启动了一项维护文件到唯一 ID 的映射的任务,我们需要在处理 1B 记录时加载此数据,并在此数据集中查找并确定需要内容替换的所有不同文件日期。
映射将是巨大的,因为它必须保存 50B 记录并且可能会增加,因为它是一个不断增长的系统。
有什么想法吗?
sql - 与另一个数据库相比,如何更新数据库中的所有表?
我有一个包含 500 多个表的数据库,现在有一个旧备份中该数据库的副本。我们注意到新数据库中有许多缺失的记录,我想从旧数据库中更新?
从另一个数据库更新所有记录的最佳做法是什么,我们可以使用查询单独完成,但这很耗时,而且我们有截止日期。是否有任何替代或最佳方法来实现这一点。
问候
sql-server - 有没有比 Enumerable 更快的东西。除了方法?
我有一个程序可以将数据从服务器数据库下载到客户端数据库。服务器数据库最近不断增长。
在该程序中,有一个选项可以选择下载所有数据或下载特定时间段的数据(可以从今天开始选择向后的日期)。如果用户选择全部,我编写程序来截断客户端数据库表并使用批量复制插入所有数据。那部分没问题。
但问题是当用户选择特定时间段(每个重新编码已创建数据时间)时,程序必须比较两个表并将重新编码(服务器数据)划分为两个表。一是不存在数据,二是不存在数据。我要做的是,不是现有数据直接插入客户端数据库(我正在使用批量插入)和现有数据使用批量复制插入临时表,并在使用上述临时表更新客户端表之后。划分服务器表时出现我的实际问题。我就是这样做的
(服务器表中通常有超过 1M 的重新编码)
当有超过 100 万次重新编码时,更新部分需要 10 分钟的可接受时间(是的,它从 Ram 占用 5GB 空间 - 在这种情况下,考虑性能时可以)但插入部分接缝需要几天时间,只是为了评估 insertTable(datatable) . 这就是问题所在。
AsEnumerable().Except()
部分需要很长时间,我找不到加速这个过程的解决方案。我不确定我是否正确解释了这一点。任何人都可以给我一些建议吗?
mysql - 一次大的更新请求?
在我的代码中,我通过 foreach 循环构建了一个 CASE WHEN 语句,以更新一些数据。
问题是我可能会得到一百行甚至更多的语句,我想知道一次使用如此大的更新请求是否安全。我应该把我的请求分成小块吗?
基本上,该表的结构如下:
构建后,CASE WHEN 语句可能如下所示:
php - 在 Laravel 中批量更新每行的特定 where 条件
我正在使用 Laravel 开发一个数据库驱动的网站。现在我在更新数据库时遇到问题。我想运行批量更新。通常我是这样跑的。
正如您在上面的代码中看到的那样,where 子句只检查要更新的所有行的一个条件。但我想要的是每行或查询都需要不同的 where 子句条件。要对每一行使用 foreach 并运行查询,这将非常耗时,因为我必须更新很多行。为了证明这一点,它将是这样的。
我找到了这个链接,但答案并不清晰和完整。是否可以在 Laravel 中做到这一点,我该怎么做?
couchdb - 没有 _bulk_docs 的 Couchdb 批量更新特定属性
第一的。我学会了使用 _update 函数执行更新(但这仅适用于一个文档 ID)
秒。我们可以使用 _bulk_docs 来更新 bukl 的文档。在这种情况下,我们必须加载所有文档,然后修改它的属性。这会产生很多查询。
有什么方法可以对许多文档的 1 个属性执行批量更新?
node.js - 如何使用node.js在mongodb中执行批量更新操作
我正在尝试collection
使用mongodb
不同的字段值更新大量文档。我Id
对每个document
. 我需要在单个更新命令中更新大量记录。我们如何更新大量文档。请提出解决此问题的方法。