Apabila aplikasi Node.js anda semakin popular, pengendalian lebih ramai pengguna, permintaan dan data akan menjadi perlu. Penskalaan memastikan aplikasi anda kekal responsif dan berfungsi dengan cekap di bawah beban yang semakin meningkat. Dalam artikel ini, kami akan meneroka pelbagai cara untuk menskalakan aplikasi Node.js, sebab ia penting dan memberikan contoh dunia sebenar dengan coretan kod yang berkaitan. Kami juga akan merangkumi alatan dan teknik biasa, seperti pengelompokan, pengimbangan beban, perkhidmatan mikro dan penskalaan mendatar.
Penskalaan membolehkan aplikasi Node.js anda mengendalikan peningkatan bilangan pengguna dan transaksi tanpa kesesakan prestasi atau masa henti. Jika permohonan anda tidak berskala secukupnya:
Terdapat dua jenis penskalaan utama:
Dalam aplikasi Node.js, penskalaan mendatar selalunya menjadi pilihan pilihan. Mari terokai kaedah untuk menskalakan Node.js secara mendatar.
Node.js adalah satu-benang secara semula jadi, bermakna ia berjalan pada satu teras. Pengelompokan membolehkan anda menjalankan berbilang contoh aplikasi Node.js anda, setiap satu pada teras CPU yang berbeza, menggunakan potensi penuh mesin berbilang teras.
const cluster = require('cluster'); const http = require('http'); const os = require('os'); // Check if current process is the master if (cluster.isMaster) { // Get number of CPU cores const numCPUs = os.cpus().length; // Fork workers for (let i = 0; i < numCPUs; i++) { cluster.fork(); } // Listen for dying workers and replace them cluster.on('exit', (worker, code, signal) => { console.log(`Worker ${worker.process.pid} died. Starting a new worker...`); cluster.fork(); }); } else { // Workers can share any TCP connection http.createServer((req, res) => { res.writeHead(200); res.end('Hello from worker ' + process.pid); }).listen(8000); console.log(`Worker ${process.pid} started`); }
Penjelasan:
Pendekatan ini membolehkan aplikasi Node.js anda mengendalikan lebih banyak permintaan secara serentak, memanfaatkan berbilang teras.
Untuk menskala secara mendatar, anda boleh menggunakan berbilang tika aplikasi Node.js anda merentas pelayan yang berbeza. Pengimbangan beban memastikan trafik diagihkan secara sama rata merentas keadaan ini, menghalang mana-mana pelayan tunggal daripada terharu.
NGINX ialah alat yang berkuasa untuk mengimbangi beban. Begini cara untuk mengkonfigurasinya.
sudo nano /etc/nginx/sites-available/nodeapp.conf
upstream node_backend { server 127.0.0.1:3000; server 127.0.0.1:3001; server 127.0.0.1:3002; } server { listen 80; server_name your_domain_or_IP; location / { proxy_pass http://node_backend; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection 'upgrade'; proxy_set_header Host $host; proxy_cache_bypass $http_upgrade; } }
sudo nginx -t sudo systemctl restart nginx
Penjelasan:
Dengan menambahkan lebih banyak pelayan atau kejadian, anda boleh mengecilkan dan memberi perkhidmatan kepada lebih ramai pengguna secara serentak.
Satu lagi pendekatan biasa untuk menskalakan aplikasi Node.js ialah memecahkan aplikasi monolitik kepada perkhidmatan yang lebih kecil dan dipisahkan dikenali sebagai perkhidmatan mikro. Setiap perkhidmatan mikro mengendalikan bahagian tertentu fungsi (cth., pengesahan, pembayaran, pengurusan pengguna) dan berkomunikasi dengan orang lain melalui API.
Perkhidmatan Mikro Pengguna (perkhidmatan pengguna.js):
const express = require('express'); const app = express(); app.get('/user/:id', (req, res) => { const userId = req.params.id; res.send(`User details for ID: ${userId}`); }); app.listen(3001, () => { console.log('User service listening on port 3001'); });
Pesan Microservice (order-service.js):
const express = require('express'); const app = express(); app.get('/order/:id', (req, res) => { const orderId = req.params.id; res.send(`Order details for ID: ${orderId}`); }); app.listen(3002, () => { console.log('Order service listening on port 3002'); });
Gerbang API:
const express = require('express'); const app = express(); const request = require('request'); app.get('/user/:id', (req, res) => { request(`http://localhost:3001/user/${req.params.id}`).pipe(res); }); app.get('/order/:id', (req, res) => { request(`http://localhost:3002/order/${req.params.id}`).pipe(res); }); app.listen(3000, () => { console.log('API Gateway listening on port 3000'); });
Penjelasan:
Containers provide an efficient way to package your application and its dependencies, ensuring consistency across different environments (development, testing, production). Docker is a popular tool for containerization.
# Use an official Node.js runtime as the base image FROM node:14 # Set the working directory WORKDIR /usr/src/app # Copy package.json and install dependencies COPY package*.json ./ RUN npm install # Copy the application source code COPY . . # Expose the port the app runs on EXPOSE 3000 # Start the Node.js application CMD ["node", "app.js"]
docker build -t nodeapp . docker run -p 3000:3000 nodeapp
With Docker, you can easily scale your application by running multiple containers across different servers or environments.
Kubernetes is a powerful tool for automating the deployment, scaling, and management of containerized applications. When you need to run your Node.js application in multiple containers, Kubernetes helps in orchestration, ensuring availability and scalability.
Here’s a high-level view of how to scale Node.js applications with Kubernetes:
Scaling your Node.js application is critical for handling increased traffic, ensuring high availability, and delivering a consistent user experience. Techniques such as clustering, load balancing, microservices, and containerization provide powerful ways to scale horizontally. With tools like NGINX, Docker, and Kubernetes, you can efficiently scale your Node.js application to meet growing demands. By implementing these strategies, you’ll be prepared to handle both current and future traffic spikes with ease.
Atas ialah kandungan terperinci Menskalakan Aplikasi Node.js: Amalan, Teknik dan Alat Terbaik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!