Node.js에서 Stream(읽기, 쓰기, 이중 및 변환 스트림)을 구현하는 방법에 대해 이야기해 보겠습니다.

青灯夜游
풀어 주다: 2021-12-22 19:23:53
앞으로
3419명이 탐색했습니다.

이 기사에서는Node에서 Stream을 이해하고 읽기 가능한 스트림, 쓰기 가능한 스트림, 이중 스트림 및 변환 스트림을 구현하기 위해 Stream을 도입하는 방법을 소개합니다. 모두에게 도움이 되기를 바랍니다.

Node.js에서 Stream(읽기, 쓰기, 이중 및 변환 스트림)을 구현하는 방법에 대해 이야기해 보겠습니다.

Stream 소개

이러한 요구 사항이 있다고 가정해 보겠습니다. 한 파일의 내용을 다른 파일에 복사해야 하며 다음 코드를 작성하겠습니다.

const fs = require('fs'); const path = require('path'); const copy = (source, target) => { fs.readFile(path.resolve(source), (err, data) => { if(err) { throw new Error(err.toString()); return; } fs.writeFile(path.resolve(target), data, (err) => { if(!err) { console.log("复制成功!"); } }) }) }
로그인 후 복사

위 코드는 매우 간단합니다. 그냥 읽으세요. 먼저source파일의 내용을 가져온 다음 해당 내용을target파일에 씁니다.source의 내용을 모두 읽어target에 써야 하는 것이 특징입니다.source文件里面的内容,然后将内容写入到target文件中。它的特点是需要读取完source里面的所有内容,然后将内容写入到target

이것은 큰 파일을 읽을 때 메모리가 부족할 수 있다는 단점이 있습니다. 왜냐하면 먼저 파일의 모든 내용을 메모리로 읽어들이기 때문에 한꺼번에 읽는 데 시간이 걸리기 때문입니다. 대용량 파일을 메모리에 로드하는 데 오랜 시간이 걸리고 사용자가 멈춘 듯한 느낌을 받을 수 있습니다.

또 다른 해결 방법은 읽기와 쓰기를 동시에 수행하고 파일 내용의 일부를 읽은 다음 해당 내용을 새 파일에 쓰는 것입니다. 이런 방식으로 메모리의 데이터는 내용의 일부일 뿐이며 차지하지 않습니다. 메모리가 너무 많으면 사용자가 빠르게 응답을 얻을 수 있어 사용자 경험이 향상됩니다.

스트림 사용 전후의 데이터 흐름을 생생하게 보여주는 애니메이션을

online에서 찾았습니다

Node.js에서 Stream(읽기, 쓰기, 이중 및 변환 스트림)을 구현하는 방법에 대해 이야기해 보겠습니다.

Node.js에서 Stream(읽기, 쓰기, 이중 및 변환 스트림)을 구현하는 방법에 대해 이야기해 보겠습니다.

Node.js에서는 대용량 처리에 특별히 사용되는 Stream API를 제공합니다. 파일. 데이터는 물의 흐름처럼 부분적으로 처리되기 때문에 이 모듈의 이름을 Stream이라고 합니다.

const fs = require('fs'); function copy(source, target) { const rs = fs.createReadStream(source); const ws = fs.createWriteStream(target); rs.on('data', data => { ws.write(data); }); rs.on('end', () => { ws.end(); }); }
로그인 후 복사

위 코드에 대한 자세한 내용은 추후 공개됩니다.

스트림 분류

Stream은 네 가지 범주로 나눌 수 있습니다.

    Readable: 읽을 수 있는 스트림, 데이터 제공자
  • Writeable: 쓰기 가능한 스트림, 데이터 소비자
  • Duplex: 쓰기 가능 및 읽기 가능한 스트림( 이중 스트림)
  • Transform: Duplex의 특별한 경우입니다. 스트림을 변환하여 입력 데이터를 처리한 후 출력합니다.
읽기 가능한 스트림과 쓰기 가능한 스트림은 다음과 같습니다

Stream 是 EventEmitter 的实例,有自定义的事件。

Readable Stream

可读流有两个模式,暂停模式与流动模式。当我们创建一个流时,如果我们监听了readable事件,它就会来到暂停模式,在暂停模式下,它会不断的读取数据到缓冲区,当读取到的数据超过预设的大小时,它由属性highWaterMark指定(默认为 64kB),便会触发readable事件,readable事件的触发有两种情况:

  • 缓存区中的数据达到highWaterMark预设的大小
  • 数据源的数据已经被读取完毕
const fs = require('fs'); const rs = fs.createReadStream('a.txt', { highWaterMark: 1 // 缓存区最多存储 1 字节 }); rs.on('readable', () => { let data; while(data=rs.read()) { console.log(data.toString()); } })
로그인 후 복사

上面的程序设置highWaterMark为 1,即每次读取到一个字节便会触发readable命令,每次当触发readable命令时,我们调用可读流的read([size])方法从缓冲区中读取数据(读取到的数据为 Buffer),然后打印到控制台。

当我们为可读流绑定data事件时,可读流便会切换到流动状态,当位于流动状态时,可读流会自动的从文件中读取内容到缓冲区,当缓冲区中的内容大于设定的highWaterMark的大小时,便会触发data事件,将缓冲区中的数据传递给data事件绑定的函数。以上过程会自动不断进行。当文件中的所有内容都被读取完成时,那么就会触发end事件。

const fs = require('fs'); const rs = fs.createReadStream('a.txt', { highWaterMark: 2 }); rs.on('data', data => { console.log(data.toString()); }); rs.on('end', () => { console.log("文件读取完毕!"); });
로그인 후 복사

暂停模式像是手动步枪,而流动模式则像是自动步枪。暂停模式与流动模式也可以相互切换,通过pause()可以从流动状态切换到暂停状态,通过resume()则可以从暂停模式切换到流动模式。

可读流的一个经典实例就是http中的请求对象req,下面的程序展示了通过监听reqdata事件来读取 HTTP 请求体中的内容

const http = require('http'); const app = http.createServer(); app.on('request', (req, res) => { let datas = []; req.on('data', data => { datas.push(data); }); req.on('end', () => { req.body = Buffer.concat(datas); // 当读取完 body 中的内容之后,将内容返回给客户端 res.end(req.body); }); }) app.listen(3000, () => { console.log("服务启动在 3000 端口... ..."); })
로그인 후 복사

Node.js에서 Stream(읽기, 쓰기, 이중 및 변환 스트림)을 구현하는 방법에 대해 이야기해 보겠습니다.

Writable Stream

可写流与可读流相似,当我们向可写流写入数据时(通过可写流的write()方法写数据),会直接将数据写入到文件中,如果写入的数据比较慢的话,那就就会将数据写入到缓冲区,当缓冲区中的内容达到highWaterMark设定的大小时,write方法就会返回一个false,表明不能接受更多的数据了。

当缓冲区中的数据全部被消费完了(写入了文件中或者被别的流消费了),那么就会触发drain事件。

const fs = require('fs'); const ws = fs.createWriteStream('b.txt', { highWaterMark: 16 * 1024 }); function writeMillionTimes(writer, data, encoding, callback) { let i = 10000; write(); function write() { // 表示是否可以向可写流中写入数据 let ok = true; while(i-- > 0 && ok) { // 当 writer.write() 方法返回 false 表示不可写入数据 ok = writer.write(data, encoding, i === 0 ? callback : null); } if(i > 0) { // 说明 ok 为 false,即不能向缓冲区中写入内容了 console.log("drain", i); // 监听 drain 事件,当队列消费完毕时继续调用 write() 方法写入 writer.once('drain', write); } } } writeMillionTimes(ws, 'simple', 'utf-8', () => { console.log("end"); })
로그인 후 복사

输出为

drain 7268 drain 4536 drain 1804 end
로그인 후 복사

说明有三次缓冲区中的内容达到了 16KB,可以验算上面的数字之间的差值,在乘以6(simple 的字节数),大小大约为16 * 1024左右,如

( 7268 4536 ) 6 = 16392 16384 = 16 1024 (7268 - 4536) * 6 = 16392 \approx 16384 = 16 * 1024

我们还可以调用可写流的end()方法,表示将缓存中的内容清空写入文件,并关闭文件,此时会触发close事件

const fs = require('fs'); const ws = fs.createWriteStream('b.txt'); ws.write('Hello'); ws.write('World'); ws.end('!'); ws.on('close', () => { console.log("close"); // close })
로그인 후 복사

当调用end()方法之后就不能调用write()方法了,否则会报错

const fs = require('fs'); const ws = fs.createWriteStream('b.txt'); ws.write('Hello'); ws.write('World'); ws.end('!'); ws.write('write again'); // Error [ERR_STREAM_WRITE_AFTER_END]: write after end
로그인 후 복사

当调用end()方法之后,并且数据缓冲区中的数据已经写入之后会触发可写流的finish事件

const fs = require('fs'); const ws = fs.createWriteStream('b.txt'); ws.write('Hello'); ws.write('World'); ws.end('!'); ws.on('close', () => { console.log("close"); }); ws.on('finish', () => { console.log("finish"); });
로그인 후 복사

打印结果是

finish close
로그인 후 복사

说明finish事件会在close事件之前被触发。

可写流的经典例子就是http模块的响应对象res,下面的程序演示了当请求到来时,我们读取一个html页面返回给客户端

const http = require('http'); const fs = require('fs'); const app = http.createServer(); app.on('request', (req, res) => { const rs = fs.createReadStream('index.html'); rs.on('data', data => { res.write(data); }) rs.on('end', () => { res.end() }); }); app.listen(3000, () => { console.log("服务启动在 3000 端口 ... ..."); })
로그인 후 복사

Duplex Stream 与 Transform Stream

Duplex,即双工的意思,它既可以接收数据,也可以输出数据,它的输入和输出之间可以没有任何的关系,就像是一个部件内部有两个独立的系统。Duplex 继承了可读流(Readable),并且拥有可写流(Writable)的所有方法。

Transform Stream 继承了 Duplex Stream,它同样具有可读流与可写流的能力,并且它的输出与输入之间是有关系的,中间做了一次转换。常见的转换流有zlibcrypto

出于文章结构的考虑,在这里不详细讲解这两个流,在后文中会实现这两个流,以加深对这两个流的理解。

pipe

我们可以混合使用可读流与可写流来进行文件的复制

const fs = require('fs'); function copy(source, target) { const rs = fs.createReadStream(source); const ws = fs.createWriteStream(target); rs.on('data', data => { ws.write(data); }); rs.on('end', () => { ws.end(); }); } copy('a.txt', 'b.txt');
로그인 후 복사

但是上面的写法却不被建议使用,因为没有考虑到可读流与可写流速度之间的差异,如果可读流输出数据的速度大于可写流写入数据的速度,这个时候就会有数据一直堆压在缓存区,导致占用过高的内存,专业术语叫做积压。

我们需要改善上面的程序,具体做法就是当write()方法返回false时,我们切换可读流的模式为暂停模式,当可写流触发了drain事件时,我们便将可读流的状态切换为流动模式

const fs = require('fs'); function copy(source, target) { const rs = fs.createReadStream(source); const ws = fs.createWriteStream(target); rs.on('data', data => { if (!ws.write(data)) { rs.pause(); } }); rs.on('end', () => { ws.end(); }); ws.on('drain', () => { rs.resume(); }) }
로그인 후 복사

那是不是每次我们使用流都需要写这么多的代码,当然不是。官方为可读流提供了一个pipe(ws)方法,pipe方法接收一个可写流,它的作用就是将可读流中数据写入到可写流中去,并且它内部有做速度差异的处理。所以上面的写法可以改为下面的版本

const fs = require('fs'); function copy(source, target) { const rs = fs.createReadStream(source); const ws = fs.createWriteStream(target); rs.pipe(ws); }
로그인 후 복사

当我们调用pipe方法时,会触发可写流的pipe事件。pipe的实现参考如下

Readable.prototype.pipe = function(ws) { this.on('data', data => { if (!ws.write(data)) { this.pause(); } }); ws.on('drain', () => { this.resume(); }); // 触发 pipe 事件 ws.emit('pipe', this); // 返回可写流,以支持链式调用 return ws; }
로그인 후 복사

这里给出官网画的一个有关pipe的流程图

+===================+ x--> Piping functions +--> src.pipe(dest) | x are set up during |===================| x the .pipe method. | Event callbacks | +===============+ x |-------------------| | Your Data | x They exist outside | .on('close', cb) | +=======+=======+ x the data flow, but | .on('data', cb) | | x importantly attach | .on('drain', cb) | | x events, and their | .on('unpipe', cb) | +---------v---------+ x respective callbacks. | .on('error', cb) | | Readable Stream +----+ | .on('finish', cb) | +-^-------^-------^-+ | | .on('end', cb) | ^ | ^ | +-------------------+ | | | | | ^ | | ^ ^ ^ | +-------------------+ +=================+ ^ | ^ +----> Writable Stream +---------> .write(chunk) | | | | +-------------------+ +=======+=========+ | | | | | ^ | +------------------v---------+ ^ | +-> if (!chunk) | Is this chunk too big? | ^ | | emit .end(); | Is the queue busy? | | | +-> else +-------+----------------+---+ | ^ | emit .write(); | | | ^ ^ +--v---+ +---v---+ | | ^-----------------------------------< No | | Yes | ^ | +------+ +---v---+ ^ | | | ^ emit .pause(); +=================+ | | ^---------------^-----------------------+ return false; <-----+---+ | +=================+ | | | ^ when queue is empty +============+ | ^------------^-----------------------< Buffering | | | |============| | +> emit .drain(); | ^Buffer^ | | +> emit .resume(); +------------+ | | ^Buffer^ | | +------------+ add chunk to queue | | <---^---------------------< +============+
로그인 후 복사

实现流

在本节中我们来实现具体的流,通过实现流可以进一步加深对 Stream 内部工作细节的理解。

实现可读流

上面我们都是通过fs.createReadableStream()方法来得到一个可读流的,在这里我们自己实现一个可读流。实现可读流只需要继承Readable类,然后实现_read()方法即可

const { Readable } = require('stream'); class IeteratorReadableStream extends Readable { constructor(iterator) { super(); this.iterator = iterator; } _read() { let data = this.iterator.next(); // console.log(data); if(data.done) { this.push(null); } else { // 必须 push 字符串或者 Buffer this.push(data.value+''); } } } module.exports = IeteratorReadableStream;
로그인 후 복사

上述我们实现了一个可读流,可读流接收一个迭代器作为参数,这个迭代器作为这个可读流的数据源。可读流会自动的调用_read获取数据,在_read方法中我们从迭代器中获取数据,并且调用了push方法,该方法的作用就是将数据放入到缓存区中,只能向其中push字符串或者 Buffer,当我们向其中pushnull 时就表示数据已经被全部读取完毕。

所以可读流的执行逻辑为,每次调用_read方法从数据源读取数据,并将数据存入缓存区,然后触发data事件,将缓存区中的数据作为参数传递给data事件绑定的回调函数,循环上述过程直到向缓存区pushnull 时,就表示数据源中的数据已经被读取完毕,此时会触发end事件。

我们创建一个迭代器作为数据源传入

const IeteratorReadableStream = require('./IteratorReadableStream'); function *getData() { for(let i = 0; i < 5; i++) { yield i; } } let rs = new IeteratorReadableStream(getData()); rs.on('data', data => { console.log(data.toString()); }); rs.on('end', () => { console.log("迭代结束"); });
로그인 후 복사

输出为

0 1 2 3 4 迭代结束
로그인 후 복사

实现可写流

实现可写流的过程同实现可读流的过程类似,首先需要继承Writable类,接着实现_write方法即可

const fs = require('fs'); const { Writable } = require('stream'); class FileWritableStream extends Writable { constructor(filepath) { super(); this.filepath = filepath; } _write(chunk, encoding, callback) { fs.appendFile(this.filepath, chunk, { encoding }, callback) } }
로그인 후 복사

上面我们实现了一个可写流,这个可写流接收一个文件路径作为参数,它的作用就是向这个文件中追加数据,每次当我们调用可写流的write()方法时,它会向缓冲区写入数据,当达到阈值时,便会调用_write()方法将数据新增到文件中。

process.stdin.pipe(new FileWritableStream('c.txt'));
로그인 후 복사

上面这行代码的作用就是将从标准输入的字符输出到c.txt中。

实现双工流

Duplex Stream 既可以作为可读流,也可以作为可写流,并且它的输入与输出之间可以没有关系。Duplex Stream 继承了 Readable,并且拥有 Writable 的所有,我们只要分别实现_read()_write()方法即可

const { Duplex } = require('stream'); class CustomDuplexStream extends Duplex { constructor() { super(); this.currentCharCode = 65; } _read() { if(this.currentCharCode <= 90) { this.push(String.fromCharCode(this.currentCharCode++)) } else { this.push(null); } } _write(chunk, encoding, callback) { console.log(chunk.toString()); callback(); } }
로그인 후 복사

上面双工流的可读流部分就是将大写的 26 个字母添加进了缓存区,而可写流部分就是直接将数据输出到控制台。可见双工流可读流与可写流之间并没有任何的关系

const dp = new CustomDuplexStream(); dp.write("1"); dp.write("2"); dp.end(); dp.pipe(process.stdout);
로그인 후 복사

输出为

1 2 ABCDEFGHIJKLMNOPQRSTUVWXYZ
로그인 후 복사

实现转换流

Tranform Stream 是 Duplex 的特例,它也是一个双工流,不过它的输入和输出之间有关联,它的内部通过_transform()方法将可写流接收到的数据经过转换后传入到可读流中,所以我们要实现转换流,只需要实现_transform()方法即可

const { Transform } = require('stream'); class UpperTransformStream extends Transform { _transform(chunk, encoding, callback) { this.push(chunk.toString().toUpperCase()); callback(); } }
로그인 후 복사

上面我们实现了一个转换流,它可以将输入的小写字符转化为大写字符然后输出

const ts = new UpperTransformStream(); const rs = fs.createReadStream('a.txt'); rs.pipe(ts).pipe(process.stdout);
로그인 후 복사

上面程序会读取a.txt中的所有字符,将字符转换为大写然后输出在控制台。

转换流在实际应用中还是比较多的,这里介绍一个 Node.js 内置的转换流zlib,它的作用对文件进行解压缩,将文件压缩为压缩文件,或者将压缩文件解压为正常文件,这不就是一个典型的转换流嘛!

const zlib = require('zlib'); const fs = require('fs'); const args = process.argv.slice(2); const source = fs.createReadStream(args[0]); const target = fs.createWriteStream(args[1]); const gzip = zlib.createGzip(); source.pipe(gzip).pipe(target);
로그인 후 복사

我们可以通过

node gzip.js Graph.md Graph.md.gz
로그인 후 복사

来运行上面的程序,它可以将 Graph.md 使用 gzip 压缩为 Graph.md.gz。

Node.js에서 Stream(읽기, 쓰기, 이중 및 변환 스트림)을 구현하는 방법에 대해 이야기해 보겠습니다.

文件大小从201KB压缩到了51KB

同样的我们也可以通过zlib.createGunzip()来创建一个解压缩的转换流,具体细节同压缩文件相同,不做介绍。

本篇文章到此结束,想必到这里已经对 Stream 的使用已经有所了解了,但是本篇文章并没有列举所有有关 Stream 的 API,如果想更加详细的了解 Stream 的 API,那么接下去就可以阅读官方文档(http://nodejs.cn/api/stream.html)了。

更多node相关知识,请访问:nodejs 教程!!

위 내용은 Node.js에서 Stream(읽기, 쓰기, 이중 및 변환 스트림)을 구현하는 방법에 대해 이야기해 보겠습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:juejin.cn
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿
회사 소개 부인 성명 Sitemap
PHP 중국어 웹사이트:공공복지 온라인 PHP 교육,PHP 학습자의 빠른 성장을 도와주세요!
읽기 가능한 스트림 쓰기 가능한 스트림 HTTP 요청 HTTP 응답 fs 읽기 스트림 fs 쓰기 스트림 process.st din process.std out TCP 소켓 TCP 소켓 zlib 스트림 zlib 스트림 crypto 스트림 crypto 스트림