У меня есть файл, который хранит много объектов JavaScript в форме JSON, и мне нужно прочитать файл, создать каждый из объектов и сделать с ними что-то (вставьте их в db в моем случае). Объекты JavaScript могут быть представлены в формате:
Формат A:
[{name: 'thing1'},
....
{name: 'thing999999999'}]
или Формат B:
{name: 'thing1'} // <== My choice.
...
{name: 'thing999999999'}
Обратите внимание, что ...
указывает много объектов JSON. Я знаю, что могу прочитать весь файл в памяти, а затем использовать JSON.parse()
следующим образом:
fs.readFile(filePath, 'utf-8', function (err, fileContents) {
if (err) throw err;
console.log(JSON.parse(fileContents));
});
Однако файл может быть действительно большим, я бы предпочел использовать поток для этого. Проблема, которую я вижу с потоком, заключается в том, что содержимое файла может быть разбито на части данных в любой момент, так как я могу использовать JSON.parse()
для таких объектов?
В идеале каждый объект будет читаться как отдельный фрагмент данных, но я не уверен, как это сделать.
var importStream = fs.createReadStream(filePath, {flags: 'r', encoding: 'utf-8'});
importStream.on('data', function(chunk) {
var pleaseBeAJSObject = JSON.parse(chunk);
// insert pleaseBeAJSObject in a database
});
importStream.on('end', function(item) {
console.log("Woot, imported objects into the database!");
});*/
Примечание. Я хочу предотвратить чтение всего файла в память. Эффективность времени для меня не имеет значения. Да, я мог бы попытаться прочитать сразу несколько объектов и вставить их сразу, но это настройка производительности - мне нужен способ, который гарантированно не приведет к перегрузке памяти, неважно, сколько объектов содержится в файле,
Я могу использовать FormatA
или FormatB
или, возможно, что-то еще, просто укажите в своем ответе. Спасибо!