我有一个以 JSON 格式存储许多 JavaScript 对象的文件,我需要读取该文件,创建每个对象,并对它们进行处理(在我的例子中将它们插入到一个 db 中)。JavaScript 对象可以用一种格式表示:
格式 A:
[{name: 'thing1'},
....
{name: 'thing999999999'}]
或 格式 B:
{name: 'thing1'} // <== My choice.
...
{name: 'thing999999999'}
注意,...
表示许多 JSON 对象。我知道我可以把整个文件读入内存,然后像这样使用 JSON.parse()
:
fs.readFile(filePath, 'utf-8', function (err, fileContents) {
if (err) throw err;
console.log(JSON.parse(fileContents));
});
但是,文件可能非常大,我更愿意使用流来实现这一点。我在流中看到的问题是,文件内容可能在任何时候被分解成数据块,因此我如何在这样的对象上使用 JSON.parse()
?
理想情况下,每个对象将作为一个单独的数据块读取,但我不确定是否在 怎么做上。
var importStream = fs.createReadStream(filePath, {flags: 'r', encoding: 'utf-8'});
importStream.on('data', function(chunk) {
var pleaseBeAJSObject = JSON.parse(chunk);
// insert pleaseBeAJSObject in a database
});
importStream.on('end', function(item) {
console.log("Woot, imported objects into the database!");
});*/
注意,我希望防止将整个文件读入内存。时间效率对我来说并不重要。是的,我可以尝试一次读取多个对象,然后一次插入所有对象,但这是一个性能调整——我需要一种保证不会导致内存过载的方法,无论文件中包含多少对象。
我可以选择使用 FormatA
或者 FormatB
或者其他什么,请在您的回答中指定。谢谢!