J'ai récemment rencontré un tel problème : Serveur proxy (peut être LVS haproxy nginx), nous prenons ici Ningx comme exemple lors de l'exécution d'un proxy de cluster prxoy, comment juger de la capacité de traitement de connexion d'un seul serveur Il n'y a aucune pression sur la bande passante de charge du serveur proxy, le seul ? Le problème possible est un problème de connexion TCP : désormais, le nombre de connexions établies par un seul serveur peut atteindre 8 000, généralement 6,5 000, et le délai d'attente peut atteindre 2 000, généralement 1,3 000. Le port aléatoire du serveur est ouvert à 61 000.
Il ne devrait y avoir aucune relation directe entre le port et le nombre de connexions établies. Mais comment un serveur de type proxy détermine-t-il sa capacité de traitement simultané ?
Veuillez donner quelques conseils d'un expert. Quelle est la relation entre cela ? Comment calculer la capacité ? Merci !!
Il n'est pas facile de répondre à votre question, car les logiciels de proxy inverse tels que Squid, Haproxy, Nginx et Varnish peuvent prendre en charge des dizaines de milliers de connexions HTTP en même temps et le réseau implique la configuration du noyau du système d'exploitation. les paramètres peuvent Le nombre de connexions prises en charge est différent. Si les paramètres sont bien optimisés, le nombre peut à nouveau augmenter.
De manière générale, le temps de fonctionnement du back-end est nettement plus long que le temps de réponse du front-end si le back-end ne peut pas prendre en charge une grande concurrence, cela n'a aucun sens de considérer le nombre maximum d'agents front-end simultanés. Il est préférable de transmettre la charge du back-end au front-end via l'interface et de laisser le front-end attribuer les priorités.
Si vous utilisez un serveur pour servir à la fois de proxy et de back-end, il n'est pas nécessaire de considérer ce type de problème. Généralement, il est envisagé avec plusieurs serveurs. Après tout, il existe de nombreux cas où le front-end est toujours. en cours d'exécution mais le back-end ne répond pas.