2

我的目标是通过 Mongoose 导入大量数据。作为一个新手,我无法通过异步使用各种机制正确设置流控制。很高兴有人能指出适当的解决方案。谢谢。

var async = require('async'),
    mongoose = require('mongoose');

mongoose.connect('mongodb://localhost/test');
var Cat = mongoose.model('Cat', { name: String });

// Imagine this is a huge array with a million items.
var content = ['aaa', 'bbb', 'ccc'];
var queries = [];
content.forEach(function(name) {
  queries.push(function(cb) {
    var obj = new Cat({ name: name });
    obj.save(function(err) {
      console.log("SAVED: " + name);
      console.log(err);
    });
    return true;
  });
});

// FAILED: async.parallel adds all content to db, 
// but it would exhaust the resource with too many parallel tasks.
async.parallel(queries, function(err, result) {
  if (err)
    return console.log(err);
  console.log(result);
});

// FAILED: save the first item but not the rest
async.waterfall(queries, function(err, result) {
  if (err)
    return console.log(err);
  console.log(result);
});

// FAILED: same as async.waterfall, async.queue saves the first item only
var q = async.queue(function(name, cb) {
  var obj = new Cat({ name: name });
  obj.save(function(err) {
    console.log("SAVED: " + name);
    console.log(err);
  });
})
q.push(content, function (err) {
  console.log('finished processing queue');
});
4

1 回答 1

5

我认为eachLimiteachSeries最适合您的情况:

var content = ['aaa', 'bbb', 'ccc'];
async.eachLimit(content, 10, function(name, done) {
  var obj = new Cat({ name : name });
  obj.save(done);
  // if you want to print some status info, use this instead:
  //
  // obj.save(function(err) {
  //   console.log("SAVED: " + name);
  //   console.log(err);
  //   done(err);
  // });
  //
}, function(err) {
  // handle any errors;
});

使用eachLimit,您可以“并行”运行 X 数量的查询(上例中为 10 个)以加快处理速度而不会耗尽资源。eachSeries将等待上一次保存,然后再继续下一次,因此一次有效地保存一个对象。

请注意,使用each*,您将不会得到一个包含(已保存)对象的列表(这有点像一种即发即弃的机制,您对结果不感兴趣,禁止任何错误)。如果你确实想要一个保存对象的列表,你可以使用等效的map*函数:mapLimitmapSeries.

于 2013-10-16T05:00:24.930 回答