所以这很奇怪。我正在尝试使用 mapreduce 在唯一端口下对日期时间/指标进行分组:
文档布局:
{
"_id" : ObjectId("5069d68700a2934015000000"),
"port_name" : "CL1-A",
"metric" : "340.0",
"port_number" : "0",
"datetime" : ISODate("2012-09-30T13:44:00Z"),
"array_serial" : "12345"
}
和 mapreduce 函数:
var query = {
'array_serial' : array,
'port_name' : { $in : ports },
'datetime' : { $gte : from, $lte : to}
}
var map = function() {
emit( { portname : this.port_name } , { datetime : this.datetime,
metric : this.metric });
}
var reduce = function(key, values) {
var res = { dates : [], metrics : [], count : 0}
values.forEach(function(value){
res.dates.push(value.datetime);
res.metrics.push(value.metric);
res.count++;
})
return res;
}
var command = {
mapreduce : collection,
map : map.toString(),
reduce : reduce.toString(),
query : query,
out : { inline : 1 }
}
mongoose.connection.db.executeDbCommand(command, function(err, dbres){
if(err) throw err;
console.log(dbres.documents);
res.json(dbres.documents[0].results);
})
如果请求少量记录,比如 5 或 10,甚至 60,我会得到我期望的所有数据。较大的查询返回截断的值....
我只是做了一些更多的测试,似乎它将记录输出限制为 100?这是每分钟的数据,当我在 24 小时内运行查询时,我预计会返回 1440 条记录……我只是运行它收到了 80 条记录。:\
这是预期的吗?我没有在任何我能告诉的地方指定限制......
更多数据:
查询 2012-10-01T23:00 - 2012-10-02T00:39(100 分钟)的记录返回正确:
[
{
"_id": {
"portname": "CL1-A"
},
"value": {
"dates": [
"2012-10-01T23:00:00.000Z",
"2012-10-01T23:01:00.000Z",
"2012-10-01T23:02:00.000Z",
...cut...
"2012-10-02T00:37:00.000Z",
"2012-10-02T00:38:00.000Z",
"2012-10-02T00:39:00.000Z"
],
"metrics": [
"1596.0",
"1562.0",
"1445.0",
...cut...
"774.0",
"493.0",
"342.0"
],
"count": 100
}
}
]
...在查询 2012-10-01T23:00 - 2012-10-02T00:39(101 分钟)中再增加一分钟:
[
{
"_id": {
"portname": "CL1-A"
},
"value": {
"dates": [
null,
"2012-10-02T00:40:00.000Z"
],
"metrics": [
null,
"487.0"
],
"count": 2
}
}
]
该dbres.documents
对象显示正确的预期发出记录:
[ { results: [ [Object] ],
timeMillis: 8,
counts: { input: 101, emit: 101, reduce: 2, output: 1 },
ok: 1 } ]
...那么数据在某处丢失了吗?