我有一个文件,它以 JSON 形式存储许多 JavaScript 对象,我需要读取该文件,创建每个对象,并对它们执行一些操作(在我的情况下将它们插入到数据库中)。JavaScript 对象可以用一种格式表示:
格式 A:
[{name: 'thing1'},
....
{name: 'thing999999999'}]
或格式 B:
{name: 'thing1'} // <== My choice.
...
{name: 'thing999999999'}
请注意,...
表示大量 JSON 对象。我知道我可以将整个文件读入内存,然后JSON.parse()
像这样使用:
fs.readFile(filePath, 'utf-8', function (err, fileContents) {
if (err) throw err;
console.log(JSON.parse(fileContents));
});
但是,文件可能非常大,我更喜欢使用流来完成此操作。我在流中看到的问题是文件内容可以在任何时候分解成数据块,那么我该如何JSON.parse()
在这些对象上使用呢?
理想情况下,每个对象都将作为单独的数据块读取,但我不确定如何做到这一点。
var importStream = fs.createReadStream(filePath, {flags: 'r', encoding: 'utf-8'});
importStream.on('data', function(chunk) {
var pleaseBeAJSObject = JSON.parse(chunk);
// insert pleaseBeAJSObject in a database
});
importStream.on('end', function(item) {
console.log("Woot, imported objects into the database!");
});*/
注意,我希望防止将整个文件读入内存。时间效率对我来说并不重要。是的,我可以尝试一次读取多个对象并将它们全部插入,但这是一个性能调整 - 我需要一种保证不会导致内存过载的方法,无论文件中包含多少对象.
我可以选择使用FormatA
或者FormatB
可能是其他东西,请在您的答案中指定。谢谢!