Streams sind die Superleistung von Node.js für die effiziente Verarbeitung großer Datenmengen. Lassen Sie uns in Streams und Pipelines eintauchen.
const fs = require('fs'); const readStream = fs.createReadStream('big.file'); const writeStream = fs.createWriteStream('output.file'); readStream.on('data', (chunk) => { writeStream.write(chunk); }); readStream.on('end', () => { writeStream.end(); });
Pipelines vereinfachen die Stream-Zusammensetzung und Fehlerbehandlung.
const { pipeline } = require('stream/promises'); const fs = require('fs'); const zlib = require('zlib'); async function compressFile(input, output) { await pipeline( fs.createReadStream(input), zlib.createGzip(), fs.createWriteStream(output) ); console.log('Compression complete'); } compressFile('big.file', 'big.file.gz').catch(console.error);
const { Transform } = require('stream'); const upperCaseTransform = new Transform({ transform(chunk, encoding, callback) { this.push(chunk.toString().toUpperCase()); callback(); } }); pipeline( process.stdin, upperCaseTransform, process.stdout ).catch(console.error);
Streams glänzen mit großen Datensätzen oder Echtzeit-Datenverarbeitung. Beherrschen Sie sie für skalierbare Node.js-Anwendungen.
Prost?
Das obige ist der detaillierte Inhalt vonNode.js-Streams und Pipelines beherrschen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!