Saya mempunyai fungsi yang secara rekursif mendapatkan semua fail dalam direktori menggunakan fs.readdirSync. Ia berfungsi dengan baik dengan direktori kecil yang saya jalankan sebagai ujian, tetapi sekarang saya menjalankannya pada direktori yang melebihi 100GB dan ia mengambil masa yang lama untuk disiapkan. Sebarang idea tentang cara mempercepatkan ini atau jika ada cara yang lebih baik? Saya akhirnya perlu menjalankan ini pada beberapa direktori yang mengandungi terabait data.
// Fungsi rekursif untuk mendapatkan fail fungsi getFiles(dir, fail = []) { // Dapatkan tatasusunan semua fail dan direktori dalam direktori yang diluluskan menggunakan fs.readdirSync const fileList = fs.readdirSync(dir); // Cipta laluan penuh fail/direktori dengan menggabungkan direktori yang diluluskan dan nama fail/direktori untuk (fail const of fileList) { nama const = `${dir}/${file}`; // Semak sama ada fail/direktori semasa ialah direktori menggunakan fs.statSync jika (fs.statSync(nama).isDirectory()) { // Jika ia adalah direktori, panggil fungsi getFiles secara rekursif dengan laluan direktori dan tatasusunan fail getFiles(nama, fail); } lain { // Jika ia adalah fail, tolak laluan penuh ke tatasusunan fail files.push(nama); } } mengembalikan fail; }
Malangnya, pilihan
异步
速度较慢。所以我们需要优化你的代码。您可以使用{withFileTypes:true}
untuk melakukan ini adalah 2x lebih pantas.Saya juga mencuba
{recursive:true}
选项,但它甚至比您的解决方案还要慢。它不适用于withFileTypes
dengan nod v20.Mungkin SSD yang lebih baik dengan kelajuan bacaan tinggi akan membantu. Walaupun saya meneka entri fail dibaca dari indeks sistem fail, tidak pasti bagaimana perkakasan mempengaruhinya.
Keluaran: