Node.js 애플리케이션의 인기가 높아짐에 따라 더 많은 사용자, 요청 및 데이터를 처리해야 하는 상황이 발생합니다. 크기 조정을 통해 애플리케이션은 응답성을 유지하고 증가하는 부하에서도 효율적으로 작동합니다. 이 글에서는 Node.js 애플리케이션을 확장하는 다양한 방법과 이것이 왜 중요한지 살펴보고 관련 코드 조각이 포함된 실제 사례를 제공합니다. 또한 클러스터링, 로드 밸런싱, 마이크로서비스, 수평적 확장과 같은 일반적인 도구와 기술도 다룰 것입니다.
확장을 사용하면 Node.js 애플리케이션이 성능 병목 현상이나 가동 중지 시간 없이 점점 더 많은 사용자와 트랜잭션을 처리할 수 있습니다. 애플리케이션의 크기가 적절하게 조정되지 않은 경우:
크기 조정에는 두 가지 주요 유형이 있습니다.
Node.js 애플리케이션에서는 수평 확장이 선호되는 경우가 많습니다. Node.js를 수평으로 확장하는 방법을 살펴보겠습니다.
Node.js는 본질적으로 단일 스레드이므로 단일 코어에서 실행됩니다. 클러스터링을 사용하면 멀티 코어 시스템의 잠재력을 최대한 활용하여 각각 다른 CPU 코어에서 Node.js 애플리케이션의 여러 인스턴스를 실행할 수 있습니다.
const cluster = require('cluster'); const http = require('http'); const os = require('os'); // Check if current process is the master if (cluster.isMaster) { // Get number of CPU cores const numCPUs = os.cpus().length; // Fork workers for (let i = 0; i < numCPUs; i++) { cluster.fork(); } // Listen for dying workers and replace them cluster.on('exit', (worker, code, signal) => { console.log(`Worker ${worker.process.pid} died. Starting a new worker...`); cluster.fork(); }); } else { // Workers can share any TCP connection http.createServer((req, res) => { res.writeHead(200); res.end('Hello from worker ' + process.pid); }).listen(8000); console.log(`Worker ${process.pid} started`); }
설명:
이 접근 방식을 사용하면 Node.js 애플리케이션이 여러 코어를 활용하여 더 많은 요청을 동시에 처리할 수 있습니다.
수평적으로 확장하려면 여러 서버에 Node.js 애플리케이션의 여러 인스턴스를 배포할 수 있습니다. 로드 밸런싱은 트래픽이 이러한 인스턴스 전체에 고르게 분산되도록 하여 단일 서버가 과부하되는 것을 방지합니다.
NGINX는 로드 밸런싱을 위한 강력한 도구입니다. 구성 방법은 다음과 같습니다.
sudo nano /etc/nginx/sites-available/nodeapp.conf
upstream node_backend { server 127.0.0.1:3000; server 127.0.0.1:3001; server 127.0.0.1:3002; } server { listen 80; server_name your_domain_or_IP; location / { proxy_pass http://node_backend; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection 'upgrade'; proxy_set_header Host $host; proxy_cache_bypass $http_upgrade; } }
sudo nginx -t sudo systemctl restart nginx
설명:
더 많은 서버나 인스턴스를 추가하면 동시에 확장하여 더 많은 사용자에게 서비스를 제공할 수 있습니다.
Node.js 애플리케이션을 확장하는 또 다른 일반적인 접근 방식은 모놀리식 애플리케이션을 마이크로서비스라고 하는 더 작고 분리된 서비스로 나누는 것입니다. 각 마이크로서비스는 기능의 특정 부분(예: 인증, 결제, 사용자 관리)을 처리하고 API를 통해 다른 서비스와 통신합니다.
사용자 마이크로서비스(user-service.js):
const express = require('express'); const app = express(); app.get('/user/:id', (req, res) => { const userId = req.params.id; res.send(`User details for ID: ${userId}`); }); app.listen(3001, () => { console.log('User service listening on port 3001'); });
마이크로서비스 주문(order-service.js):
const express = require('express'); const app = express(); app.get('/order/:id', (req, res) => { const orderId = req.params.id; res.send(`Order details for ID: ${orderId}`); }); app.listen(3002, () => { console.log('Order service listening on port 3002'); });
API 게이트웨이:
const express = require('express'); const app = express(); const request = require('request'); app.get('/user/:id', (req, res) => { request(`http://localhost:3001/user/${req.params.id}`).pipe(res); }); app.get('/order/:id', (req, res) => { request(`http://localhost:3002/order/${req.params.id}`).pipe(res); }); app.listen(3000, () => { console.log('API Gateway listening on port 3000'); });
설명:
Containers provide an efficient way to package your application and its dependencies, ensuring consistency across different environments (development, testing, production). Docker is a popular tool for containerization.
# Use an official Node.js runtime as the base image FROM node:14 # Set the working directory WORKDIR /usr/src/app # Copy package.json and install dependencies COPY package*.json ./ RUN npm install # Copy the application source code COPY . . # Expose the port the app runs on EXPOSE 3000 # Start the Node.js application CMD ["node", "app.js"]
docker build -t nodeapp . docker run -p 3000:3000 nodeapp
With Docker, you can easily scale your application by running multiple containers across different servers or environments.
Kubernetes is a powerful tool for automating the deployment, scaling, and management of containerized applications. When you need to run your Node.js application in multiple containers, Kubernetes helps in orchestration, ensuring availability and scalability.
Here’s a high-level view of how to scale Node.js applications with Kubernetes:
Scaling your Node.js application is critical for handling increased traffic, ensuring high availability, and delivering a consistent user experience. Techniques such as clustering, load balancing, microservices, and containerization provide powerful ways to scale horizontally. With tools like NGINX, Docker, and Kubernetes, you can efficiently scale your Node.js application to meet growing demands. By implementing these strategies, you’ll be prepared to handle both current and future traffic spikes with ease.
위 내용은 Node.js 애플리케이션 확장: 모범 사례, 기술 및 도구의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!