NodeJS提供了基本的文件操作API,但是像文件拷贝这种高级功能就没有提供,因此我们先拿文件拷贝程序练手。与命令类似,我们的程序需要能接受源文件路径与目标文件路径两个参数。

    小文件拷贝

    我们使用NodeJS内置的fs模块简单实现这个程序如下。

    以上程序使用fs.readFileSync从源路径读取文件内容,并使用fs.writeFileSync将文件内容写入目标路径。

    大文件拷贝

    上边的程序拷贝一些小文件没啥问题,但这种一次性把所有文件内容都读取到内存中后再一次性写入磁盘的方式不适合拷贝大文件,内存会爆仓。对于大文件,我们只能读一点写一点,直到完成拷贝。因此上边的程序需要改造如下。

    1. var fs = require('fs');
    2. function copy(src, dst) {
    3. fs.createReadStream(src).pipe(fs.createWriteStream(dst));
    4. }
    5. function main(argv) {
    6. copy(argv[0], argv[1]);
    7. }
    8. main(process.argv.slice(2));

    以上程序使用fs.createReadStream创建了一个源文件的只读数据流,并使用fs.createWriteStream创建了一个目标文件的只写数据流,并且用pipe方法把两个数据流连接了起来。连接起来后发生的事情,说得抽象点的话,水顺着水管从一个桶流到了另一个桶。

    我们先大致看看NodeJS提供了哪些和文件操作有关的API。这里并不逐一介绍每个API的使用方法,官方文档已经做得很好了。

    Buffer(数据块)

    官方文档:

    JS语言自身只有字符串数据类型,没有二进制数据类型,因此NodeJS提供了一个与String对等的全局构造函数Buffer来提供对二进制数据的操作。除了可以读取文件得到Buffer的实例外,还能够直接构造,例如:

    1. var bin = new Buffer([ 0x68, 0x65, 0x6c, 0x6c, 0x6f ]);

    Buffer与字符串类似,除了可以用.length属性得到字节长度外,还可以用[index]方式读取指定位置的字节,例如:

    1. bin[0]; // => 0x68;

    Buffer与字符串能够互相转化,例如可以使用指定编码将二进制数据转化为字符串:

    1. var str = bin.toString('utf-8'); // => "hello"

    或者反过来,将字符串转换为指定编码下的二进制数据:

    1. var bin = new Buffer('hello', 'utf-8'); // => <Buffer 68 65 6c 6c 6f>

    Buffer与字符串有一个重要区别。字符串是只读的,并且对字符串的任何修改得到的都是一个新字符串,原字符串保持不变。至于Buffer,更像是可以做指针操作的C语言数组。例如,可以用[index]方式直接修改某个位置的字节。

    1. bin[0] = 0x48;

    .slice方法也不是返回一个新的Buffer,而更像是返回了指向原Buffer中间的某个位置的指针,如下所示。

    1. [ 0x68, 0x65, 0x6c, 0x6c, 0x6f ]
    2. ^ ^
    3. | |
    4. bin bin.slice(2)

    因此对.slice方法返回的Buffer的修改会作用于原Buffer,例如:

    1. var bin = new Buffer([ 0x68, 0x65, 0x6c, 0x6c, 0x6f ]);
    2. var sub = bin.slice(2);
    3. sub[0] = 0x65;
    4. console.log(bin); // => <Buffer 68 65 65 6c 6f>

    也因此,如果想要拷贝一份Buffer,得首先创建一个新的Buffer,并通过.copy方法把原Buffer中的数据复制过去。这个类似于申请一块新的内存,并把已有内存中的数据复制过去。以下是一个例子。

    1. var bin = new Buffer([ 0x68, 0x65, 0x6c, 0x6c, 0x6f ]);
    2. var dup = new Buffer(bin.length);
    3. bin.copy(dup);
    4. dup[0] = 0x48;
    5. console.log(bin); // => <Buffer 68 65 6c 6c 6f>
    6. console.log(dup); // => <Buffer 48 65 65 6c 6f>

    总之,Buffer将JS的数据处理能力从字符串扩展到了任意二进制数据。

    Stream(数据流)

    当内存中无法一次装下需要处理的数据时,或者一边读取一边处理更加高效时,我们就需要用到数据流。NodeJS中通过各种Stream来提供对数据流的操作。

    以上边的大文件拷贝程序为例,我们可以为数据来源创建一个只读数据流,示例如下:

    豆知识: Stream基于事件机制工作,所有Stream的实例都继承于NodeJS提供的EventEmitter

    上边的代码中data事件会源源不断地被触发,不管doSomething函数是否处理得过来。代码可以继续做如下改造,以解决这个问题。

    1. var rs = fs.createReadStream(src);
    2. rs.on('data', function (chunk) {
    3. rs.pause();
    4. doSomething(chunk, function () {
    5. rs.resume();
    6. });
    7. });
    8. rs.on('end', function () {
    9. cleanUp();
    10. });

    以上代码给doSomething函数加上了回调,因此我们可以在处理数据前暂停数据读取,并在处理数据后继续读取数据。

    1. var rs = fs.createReadStream(src);
    2. var ws = fs.createWriteStream(dst);
    3. rs.on('data', function (chunk) {
    4. ws.write(chunk);
    5. });
    6. ws.end();

    我们把doSomething换成了往只写数据流里写入数据后,以上代码看起来就像是一个文件拷贝程序了。但是以上代码存在上边提到的问题,如果写入速度跟不上读取速度的话,只写数据流内部的缓存会爆仓。我们可以根据.write方法的返回值来判断传入的数据是写入目标了,还是临时放在了缓存了,并根据drain事件来判断什么时候只写数据流已经将缓存中的数据写入目标,可以传入下一个待写数据了。因此代码可以改造如下:

    1. var rs = fs.createReadStream(src);
    2. var ws = fs.createWriteStream(dst);
    3. rs.on('data', function (chunk) {
    4. if (ws.write(chunk) === false) {
    5. rs.pause();
    6. }
    7. });
    8. rs.on('end', function () {
    9. ws.end();
    10. });
    11. ws.on('drain', function () {
    12. rs.resume();
    13. });

    以上代码实现了数据从只读数据流到只写数据流的搬运,并包括了防爆仓控制。因为这种使用场景很多,例如上边的大文件拷贝程序,NodeJS直接提供了.pipe方法来做这件事情,其内部实现方式与上边的代码类似。

    File System(文件系统)

    NodeJS通过fs内置模块提供对文件的操作。fs模块提供的API基本上可以分为以下三类:

    • 文件属性读写。

      其中常用的有fs.statfs.chmodfs.chown等等。

    • 文件内容读写。

      其中常用的有fs.readFilefs.readdirfs.writeFilefs.mkdir等等。

    • 底层文件操作。

      其中常用的有fs.openfs.readfs.writefs.close等等。

    NodeJS最精华的异步IO模型在fs模块里有着充分的体现,例如上边提到的这些API都通过回调函数传递结果。以fs.readFile为例:

    1. fs.readFile(pathname, function (err, data) {
    2. if (err) {
    3. // Deal with error.
    4. } else {
    5. // Deal with data.
    6. }
    7. });

    如上边代码所示,基本上所有fs模块API的回调参数都有两个。第一个参数在有错误发生时等于异常对象,第二个参数始终用于返回API方法执行结果。

    此外,fs模块的所有异步API都有对应的同步版本,用于无法使用异步操作时,或者同步操作更方便时的情况。同步API除了方法名的末尾多了一个Sync之外,异常对象与执行结果的传递方式也有相应变化。同样以fs.readFileSync为例:

    1. try {
    2. var data = fs.readFileSync(pathname);
    3. // Deal with data.
    4. } catch (err) {
    5. // Deal with error.
    6. }

    fs模块提供的API很多,这里不一一介绍,需要时请自行查阅官方文档。

    Path(路径)

    官方文档:

    操作文件时难免不与文件路径打交道。NodeJS提供了path内置模块来简化路径相关操作,并提升代码可读性。以下分别介绍几个常用的API。

    • path.normalize

      将传入的路径转换为标准路径,具体讲的话,除了解析路径中的...外,还能去掉多余的斜杠。如果有程序需要使用路径作为某些数据的索引,但又允许用户随意输入路径时,就需要使用该方法保证路径的唯一性。以下是一个例子:

      1. var cache = {};
      2. function store(key, value) {
      3. cache[path.normalize(key)] = value;
      4. }
      5. store('foo/bar', 1);
      6. store('foo//baz//../bar', 2);
      7. console.log(cache); // => { "foo/bar": 2 }
    • path.join

      将传入的多个路径拼接为标准路径。该方法可避免手工拼接路径字符串的繁琐,并且能在不同系统下正确使用相应的路径分隔符。以下是一个例子:

      1. path.join('foo/', 'baz/', '../bar'); // => "foo/bar"
    • path.extname

      当我们需要根据不同文件扩展名做不同操作时,该方法就显得很好用。以下是一个例子:

      1. path.extname('foo/bar.js'); // => ".js"

    遍历目录是操作文件时的一个常见需求。比如写一个程序,需要找到并处理指定目录下的所有JS文件时,就需要遍历整个目录。

    递归算法

    遍历目录时一般使用递归算法,否则就难以编写出简洁的代码。递归算法与数学归纳法类似,通过不断缩小问题的规模来解决问题。以下示例说明了这种方法。

    1. function factorial(n) {
    2. if (n === 1) {
    3. return 1;
    4. } else {
    5. return n * factorial(n - 1);
    6. }
    7. }

    上边的函数用于计算N的阶乘(N!)。可以看到,当N大于1时,问题简化为计算N乘以N-1的阶乘。当N等于1时,问题达到最小规模,不需要再简化,因此直接返回1。

    陷阱: 使用递归算法编写的代码虽然简洁,但由于每递归一次就产生一次函数调用,在需要优先考虑性能时,需要把递归算法转换为循环算法,以减少函数调用次数。

    遍历算法

    目录是一个树状结构,在遍历时一般使用深度优先+先序遍历算法。深度优先,意味着到达一个节点后,首先接着遍历子节点而不是邻居节点。先序遍历,意味着首次到达了某节点就算遍历完成,而不是最后一次返回某节点才算数。因此使用这种遍历方式时,下边这棵树的遍历顺序是A > B > D > E > C > F

    同步遍历

    了解了必要的算法后,我们可以简单地实现以下目录遍历函数。

    1. function travel(dir, callback) {
    2. fs.readdirSync(dir).forEach(function (file) {
    3. var pathname = path.join(dir, file);
    4. if (fs.statSync(pathname).isDirectory()) {
    5. travel(pathname, callback);
    6. } else {
    7. }
    8. });
    9. }

    可以看到,该函数以某个目录作为遍历的起点。遇到一个子目录时,就先接着遍历子目录。遇到一个文件时,就把文件的绝对路径传给回调函数。回调函数拿到文件路径后,就可以做各种判断和处理。因此假设有以下目录:

    1. - /home/user/
    2. - foo/
    3. x.js
    4. - bar/
    5. y.js
    6. z.css

    使用以下代码遍历该目录时,得到的输入如下。

    1. travel('/home/user', function (pathname) {
    2. });
    3. ------------------------
    4. /home/user/foo/x.js
    5. /home/user/bar/y.js
    6. /home/user/z.css

    异步遍历

    如果读取目录或读取文件状态时使用的是异步API,目录遍历函数实现起来会有些复杂,但原理完全相同。travel函数的异步版本如下。

    1. function travel(dir, callback, finish) {
    2. fs.readdir(dir, function (err, files) {
    3. (function next(i) {
    4. if (i < files.length) {
    5. var pathname = path.join(dir, files[i]);
    6. fs.stat(pathname, function (err, stats) {
    7. if (stats.isDirectory()) {
    8. travel(pathname, callback, function () {
    9. next(i + 1);
    10. });
    11. } else {
    12. callback(pathname, function () {
    13. next(i + 1);
    14. });
    15. }
    16. });
    17. } else {
    18. finish && finish();
    19. }
    20. }(0));
    21. });
    22. }

    这里不详细介绍异步遍历函数的编写技巧,在后续章节中会详细介绍这个。总之我们可以看到异步编程还是蛮复杂的。

    使用NodeJS编写前端工具时,操作得最多的是文本文件,因此也就涉及到了文件编码的处理问题。我们常用的文本编码有UTF8GBK两种,并且UTF8文件还可能带有BOM。在读取不同编码的文本文件时,需要将文件内容转换为JS使用的UTF8编码字符串后才能正常处理。

    BOM的移除

    BOM用于标记一个文本文件使用Unicode编码,其本身是一个Unicode字符(”\uFEFF”),位于文本文件头部。在不同的Unicode编码下,BOM字符对应的二进制字节如下:

    1. Bytes Encoding
    2. ----------------------------
    3. FE FF UTF16BE
    4. FF FE UTF16LE
    5. EF BB BF UTF8

    因此,我们可以根据文本文件头几个字节等于啥来判断文件是否包含BOM,以及使用哪种Unicode编码。但是,BOM字符虽然起到了标记文件编码的作用,其本身却不属于文件内容的一部分,如果读取文本文件时不去掉BOM,在某些使用场景下就会有问题。例如我们把几个JS文件合并成一个文件后,如果文件中间含有BOM字符,就会导致浏览器JS语法错误。因此,使用NodeJS读取文本文件时,一般需要去掉BOM。例如,以下代码实现了识别和去除UTF8 BOM的功能。

    1. function readText(pathname) {
    2. var bin = fs.readFileSync(pathname);
    3. if (bin[0] === 0xEF && bin[1] === 0xBB && bin[2] === 0xBF) {
    4. bin = bin.slice(3);
    5. }
    6. return bin.toString('utf-8');
    7. }

    GBK转UTF8

    NodeJS支持在读取文本文件时,或者在Buffer转换为字符串时指定文本编码,但遗憾的是,GBK编码不在NodeJS自身支持范围内。因此,一般我们借助iconv-lite这个三方包来转换编码。使用NPM下载该包后,我们可以按下边方式编写一个读取GBK文本文件的函数。

    1. var iconv = require('iconv-lite');
    2. function readGBKText(pathname) {
    3. var bin = fs.readFileSync(pathname);
    4. return iconv.decode(bin, 'gbk');
    5. }

    单字节编码

    有时候,我们无法预知需要读取的文件采用哪种编码,因此也就无法指定正确的编码。比如我们要处理的某些CSS文件中,有的用GBK编码,有的用UTF8编码。虽然可以一定程度可以根据文件的字节内容猜测出文本编码,但这里要介绍的是有些局限,但是要简单得多的一种技术。

    首先我们知道,如果一个文本文件只包含英文字符,比如Hello World,那无论用GBK编码或是UTF8编码读取这个文件都是没问题的。这是因为在这些编码下,ASCII0~128范围内字符都使用相同的单字节编码。

    反过来讲,即使一个文本文件中有中文等字符,如果我们需要处理的字符仅在ASCII0~128范围内,比如除了注释和字符串以外的JS代码,我们就可以统一使用单字节编码来读取文件,不用关心文件的实际编码是GBK还是UTF8。以下示例说明了这种方法。

    1. 1. GBK编码源文件内容:
    2. var foo = '中文';
    3. 2. 对应字节:
    4. 76 61 72 20 66 6F 6F 20 3D 20 27 D6 D0 CE C4 27 3B
    5. 3. 使用单字节编码读取后得到的内容:
    6. var foo = '{乱码}{乱码}{乱码}{乱码}';
    7. 4. 替换内容:
    8. var bar = '{乱码}{乱码}{乱码}{乱码}';
    9. 5. 使用单字节编码保存后对应字节:
    10. 76 61 72 20 62 61 72 20 3D 20 27 D6 D0 CE C4 27 3B
    11. 6. 使用GBK编码读取后得到内容:
    12. var bar = '中文';

    这里的诀窍在于,不管大于0xEF的单个字节在单字节编码下被解析成什么乱码字符,使用同样的单字节编码保存这些乱码字符时,背后对应的字节保持不变。

    NodeJS中自带了一种binary编码可以用来实现这个方法,因此在下例中,我们使用这种编码来演示上例对应的代码该怎么写。

    1. function replace(pathname) {
    2. var str = fs.readFileSync(pathname, 'binary');
    3. str = str.replace('foo', 'bar');
    4. fs.writeFileSync(pathname, str, 'binary');
    5. }

    本章介绍了使用NodeJS操作文件时需要的API以及一些技巧,总结起来有以下几点:

    • 学好文件操作,编写各种程序都不怕。

    • 如果不是很在意性能,fs模块的同步API能让生活更加美好。

    • 需要对文件读写做到字节级别的精细控制时,请使用fs模块的文件底层操作API。