


Nginx Proxy Manager implémente le déploiement et la configuration du cache multi-niveaux
Nginx Proxy Manager est un serveur proxy inverse open source qui peut implémenter le déploiement et la configuration de cache à plusieurs niveaux. Grâce à une configuration raisonnable, les performances et la vitesse d'accès du site Web peuvent être améliorées.
1. Installez Nginx Proxy Manager
Tout d'abord, nous devons installer Nginx Proxy Manager. Il peut être installé en suivant ces étapes :
- Mettre à jour les packages système : sudo apt update
- Installer Nginx : sudo apt install nginx
- Installer Node.js et npm : sudo apt install nodejs npm
- Téléchargez et installez Nginx Proxy Manager : git clone https://github.com/jc21/nginx-proxy-manager.git
cd nginx-proxy-manager
npm install
npm run db:seed
2. Configurez Nginx Proxy Manager
-
Modifier. le fichier de configuration
Ouvrez le fichier de configuration de Nginx Proxy Manager : sudo nano /etc/nginx/sites-available/default
Ajoutez la configuration suivante dans la section serveur du fichier :location / { proxy_pass http://127.0.0.1:8080; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; }
Changez 127.0.0.1:8080 dans ce qui précède configuration à ce que vous utilisez réellement. L'adresse et le port du serveur en amont.
Configurer le cache
Ouvrez le fichier de configuration du cache de Nginx Proxy Manager : sudo nano /etc/nginx/nginx.conf
Ajoutez la configuration suivante dans la section http :proxy_cache_path /path/to/cache levels=1:2 keys_zone=my_cache:10m max_size=10g inactive=60m; proxy_cache_key "$scheme$request_method$host$request_uri"; proxy_cache_valid any 10m; server { ... location / { proxy_cache my_cache; proxy_cache_valid 200 301 302 10m; proxy_cache_valid any 10s; proxy_cache_min_uses 1; proxy_cache_background_update on; proxy_cache_use_stale error timeout updating http_500 http_502 http_503 http_504; proxy_cache_lock on; proxy_cache_lock_timeout 5s; proxy_pass http://127.0.0.1:8080; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; } ... }
Remplacez /path/to/cache dans ce qui précède configuration avec Le chemin où vous souhaitez réellement que le cache soit stocké.
3. Tests et effets
Redémarrez Nginx : sudo systemctl restart nginx
Maintenant, vous pouvez accéder à l'adresse IP publique du serveur via le navigateur, transmettre la requête au serveur en amont et mettre en cache la réponse. De cette façon, lorsque plusieurs utilisateurs demandent la même ressource, Nginx Proxy Manager fournira la réponse directement à partir du cache au lieu de redemander le serveur en amont.
4. Implémentez une mise en cache à plusieurs niveaux
Si votre architecture nécessite un niveau de mise en cache plus élevé, vous pouvez configurer plusieurs instances de Nginx Proxy Manager et les connecter.
Par exemple, vous pouvez configurer une instance de Nginx Proxy Manager en tant que serveur de cache frontal, transmettant les requêtes vers une autre instance de Nginx Proxy Manager, qui agit comme un serveur en amont. De cette façon, le serveur de mise en cache frontale mettra en cache la réponse demandée au serveur en amont et servira la réponse directement depuis le cache lors des requêtes ultérieures. Ce n'est qu'en cas d'échec du cache que le serveur de cache frontal demandera au serveur en amont.
La méthode de configuration du cache multi-niveaux est similaire à la configuration d'un cache unique. Il vous suffit de configurer l'adresse et le port du serveur de pré-mise en cache sur l'adresse et le port du serveur en amont.
5. Résumé
Grâce à Nginx Proxy Manager, nous pouvons facilement implémenter le déploiement et la configuration d'un cache multi-niveaux. Une configuration correcte du cache peut améliorer efficacement les performances et la vitesse d'accès du site Web et réduire la charge sur le serveur en amont. J'espère que le contenu ci-dessus vous sera utile.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Étapes de démarrage du conteneur Docker: Tirez l'image du conteneur: Exécutez "Docker Pull [Mirror Name]". Créer un conteneur: utilisez "Docker Create [Options] [Mirror Name] [Commandes et paramètres]". Démarrez le conteneur: exécutez "docker start [nom de conteneur ou id]". Vérifiez l'état du conteneur: vérifiez que le conteneur s'exécute avec "Docker PS".

Vous pouvez interroger le nom du conteneur Docker en suivant les étapes: répertorier tous les conteneurs (Docker PS). Filtrez la liste des conteneurs (à l'aide de la commande grep). Obtient le nom du conteneur (situé dans la colonne "Noms").

Créer un conteneur dans Docker: 1. Tirez l'image: docker pull [Nom du miroir] 2. Créer un conteneur: docker run [Options] [Nom du miroir] [Commande] 3. Démarrez le conteneur: docker start [Nom du conteneur]

Nginx et Apache ont leurs propres avantages et inconvénients et conviennent à différents scénarios. 1.Nginx convient aux scénarios élevés de la concurrence et de la consommation de ressources faibles. 2. Apache convient aux scénarios où des configurations complexes et des modules riches sont nécessaires. En comparant leurs fonctionnalités principales, leurs différences de performances et leurs meilleures pratiques, vous pouvez vous aider à choisir le logiciel du serveur qui convient le mieux à vos besoins.

Conseils pratiques pour améliorer les performances de PHPStorm dans les systèmes CentOS Cet article fournit une variété de méthodes pour vous aider à optimiser les performances de PHPStorm dans les systèmes CentOS et ainsi améliorer l'efficacité du développement. Avant de mettre en œuvre des mesures d'optimisation, assurez-vous de sauvegarder des données importantes et de vérifier les résultats dans l'environnement de test. 1. Optimisation au niveau du système et Streamline Services système: Désactivez les services système et les démons inutiles pour réduire l'utilisation des ressources système. Mode sans interface: le passage au mode sans interface peut économiser considérablement les ressources si vous n'avez pas besoin d'une interface graphique. Désinstaller le logiciel redondant: supprimer les packages et services logiciels qui ne sont plus utilisés et libérés des ressources système. 2.

Nginx et Apache sont tous deux des serveurs Web puissants, chacun avec des avantages et des inconvénients uniques en termes de performances, d'évolutivité et d'efficacité. 1) Nginx fonctionne bien lors de la gestion du contenu statique et de la proxyation inverse, adaptée aux scénarios de concurrence élevés. 2) Apache fonctionne mieux lors du traitement du contenu dynamique et convient aux projets qui nécessitent une prise en charge des modules riches. La sélection d'un serveur doit être déterminée en fonction des exigences et des scénarios du projet.

Nginx convient plus à la gestion des connexions simultanées élevées, tandis qu'Apache convient plus aux scénarios où des configurations complexes et des extensions de module sont nécessaires. 1.Nginx est connu pour ses performances élevées et sa faible consommation de ressources, et convient à une concurrence élevée. 2.Apache est connu pour sa stabilité et ses riches extensions de modules, qui conviennent aux besoins de configuration complexes.

Nginx et Apache ont chacun leurs propres avantages et inconvénients, et le choix doit être basé sur des besoins spécifiques. 1.Nginx convient aux scénarios de concurrence élevés en raison de son architecture asynchrone non bloquant. 2. Apache convient aux scénarios à faible monnaie qui nécessitent des configurations complexes, en raison de sa conception modulaire.
