Beispielanalyse für Nginx-Installation und -Konfiguration

WBOY
Freigeben: 2023-05-17 23:28:04
nach vorne
734 Leute haben es durchsucht

nginx ist ein kostenloser, leistungsstarker Open-Source-HTTP-Server und Reverse-Proxy-Server. Außerdem kann Nginx als HTTP-Server für die Veröffentlichung und Verarbeitung von Websites verwendet werden Wird als Reverse-Proxy-Server verwendet. Implementierung des Lastausgleichs zum Proxy.

Hier stellen wir Nginx kurz unter drei Gesichtspunkten vor , Ein Kanal;

Zu diesem Zeitpunkt werden zwei Rollen entworfen, eine ist die Agentenrolle und die andere ist die Zielrolle. Der Prozess, bei dem die Agentenrolle über diesen Agenten auf die Zielrolle zugreift, wird als Agenten bezeichnet Betriebsprozess; genau wie ein Monopol im Leben. Laden ~ Ein Kunde hat ein Paar Schuhe in einem adidas-Laden gekauft. Dieser Laden ist ein Agent, die Rolle des Agenten ist der Adidas-Hersteller und die Zielrolle ist der Benutzer

Forward Agent

Bevor wir über Reverse Agency sprechen, werfen wir einen Blick darauf. Mit Blick auf Forward-Proxy ist Forward-Proxy auch das häufigste Proxy-Modell, mit dem jeder in Kontakt kommt. Wir werden unter zwei Gesichtspunkten über das Verarbeitungsmodell von Forward-Proxy sprechen , und erläutern Sie, was ein Forward-Proxy aus Software- bzw. Lebensaspektsicht ist.

Beispielanalyse für Nginx-Installation und -KonfigurationWenn wir in der heutigen Netzwerkumgebung aus technischen Gründen auf bestimmte ausländische Websites zugreifen müssen, werden Sie feststellen, dass wir über einen nicht auf eine bestimmte ausländische Website zugreifen können Zu diesem Zeitpunkt kann jeder einen FQ-Zugriff verwenden. Die Hauptmethode von FQ besteht darin, einen Proxyserver zu finden, der auf fremde Websites zugreifen kann und gibt die abgerufenen Daten dann an uns weiter!

Der obige Proxy-Modus wird als Forward-Proxy bezeichnet. Das größte Merkmal des Forward-Proxys besteht darin, dass der Client genau weiß, auf welche Serveradresse er zugreifen möchte. Der Server weiß nur, von welchem ​​Proxy-Server die Anfrage kommt es kommt von; positiv Echte Clientinformationen werden im Proxy-Modus blockiert oder ausgeblendet.

Reverse-Proxy

Um zu verstehen, was ein Forward-Proxy ist, schauen wir uns zum Beispiel die Anzahl der Besucher an, mit denen ich in Datianchao verbunden bin Die Website ist jeden Tag zur gleichen Zeit explodiert. Tabelle 1 zeigt, dass ein einzelner Server den wachsenden Kaufwunsch der Menschen nicht befriedigen kann. Zu diesem Zeitpunkt ist ein bekannter Begriff aufgetaucht: verteilte Bereitstellung, d Um das Problem der Begrenzung der Besucherzahl auf einer bestimmten Treasure-Website zu lösen, werden die meisten Funktionen auch direkt mit Nginx als Reverse-Proxy implementiert, und nach der Kapselung von Nginx und anderen Komponenten hat es einen ausgefallenen Namen: tengine

Beispielanalyse für Nginx-Installation und -KonfigurationAlso auf welche Weise Reverse-Proxy implementiert und verteilt? Schauen wir uns zunächst ein schematisches Diagramm an:

Sie können anhand des obigen Diagramms deutlich sehen, dass der Nginx-Server sie empfängt und verteilt sie nach bestimmten Regeln an das Backend. Der Geschäftsverarbeitungsserver am Ende wird verarbeitet. Zu diesem Zeitpunkt ist die Quelle der Anforderung klar, nämlich der Client, aber es ist nicht klar, welcher Server die Anforderung verarbeitet.

Reverse-Proxy wird hauptsächlich für die Server-Cluster-Verteilung verwendet , der Reverse-Proxy verbirgt die Informationen des Servers!

ProjektszenarioBeispielanalyse für Nginx-Installation und -Konfiguration

Wenn wir das eigentliche Projekt betreiben, sind in einem Anwendungsszenario wahrscheinlich Forward-Proxy und Reverse-Proxy vorhanden. Die Anforderung des Forward-Proxy-Proxy-Clients, auf den Zielserver zuzugreifen, ist der Server ein Reverse-Single -Interest-Server, der mehrere echte Geschäftsverarbeitungsserver umgekehrt als Proxy fungiert. Das spezifische Topologiediagramm lautet wie folgt:

2. Lastausgleich

Wir haben das Konzept des sogenannten Proxyservers geklärt. Als nächstes spielt Nginx die Rolle eines Reverse-Proxyservers und welche Regeln es gibt basierend auf Was ist mit Anfragen zur Verteilung? Können die Verteilungsregeln für verschiedene Projektanwendungsszenarien gesteuert werden?

Die Anzahl der vom Client gesendeten und vom hier erwähnten Nginx-Reverse-Proxy-Server empfangenen Anforderungen wird als Last bezeichnet.

Beispielanalyse für Nginx-Installation und -KonfigurationDie Anzahl der Anforderungen wird zur Verarbeitung nach bestimmten Regeln auf verschiedene Server verteilt, was eine Art Gleichgewicht darstellt Regeln

Der Prozess der Verteilung der vom Server empfangenen Anforderungen gemäß Regeln wird als Lastausgleich bezeichnet.

Im eigentlichen Projektbetriebsprozess gibt es zwei Arten des Lastausgleichs: Hardware-Lastausgleich und Software-Lastausgleich. Hardware-Lastausgleich wird auch als harte Last bezeichnet, z. B. F5-Lastausgleich, der relativ teuer und teuer ist, aber die Stabilität und Sicherheit von Daten usw. Unternehmen wie China Mobile und China Unicom werden sich nur dann für Hard-Load-Operationen entscheiden, wenn sie über sehr gute Garantien verfügen. Aus Kostengründen entscheiden sich mehr Unternehmen für den Software-Lastausgleich . Ein in Hardware implementierter Nachrichtenwarteschlangenverteilungsmechanismus

Beispielanalyse für Nginx-Installation und -Konfiguration

nginx unterstützt den Lastausgleichsplanungsalgorithmus wie folgt:

Gewichtungsabfrage (Standard): Empfangene Anforderungen werden nacheinander an verschiedene Back-End-Server verteilt. Selbst wenn ein Backend-Server während der Nutzung ausfällt, entfernt Nginx den Server automatisch aus der Warteschlange und die Anforderungsannahme wird in keiner Weise beeinträchtigt. Auf diese Weise kann ein Gewichtungswert (Gewicht) für verschiedene Back-End-Server festgelegt werden, um die Zuordnungsrate der Anforderungen auf verschiedenen Servern anzupassen Es wird hauptsächlich an unterschiedliche Back-End-Server-Hardwarekonfigurationen in tatsächlichen Arbeitsumgebungen angepasst.

ip_hash: Jede Anfrage wird anhand des Hash-Ergebnisses der IP des initiierenden Clients abgeglichen. Bei diesem Algorithmus greift ein Client mit einer festen IP-Adresse immer auf denselben Back-End-Server zu, wodurch auch das Problem der Cluster-Bereitstellungsumgebung gelöst wird ein gewisses Maß an Problemen mit der Sitzungsfreigabe.

fair: Intelligente Anpassung des Planungsalgorithmus, dynamische und ausgewogene Zuordnung basierend auf der Zeit von der Anforderungsverarbeitung bis zur Antwort des Back-End-Servers. Server mit kurzer Antwortzeit und hoher Verarbeitungseffizienz haben eine hohe Wahrscheinlichkeit, der Anforderung zugewiesen zu werden und es werden Server mit langer Antwortzeit und geringer Verarbeitungseffizienz zugewiesen. Es werden weniger Anfragen empfangen. Es ist jedoch zu beachten, dass Nginx den Fair-Algorithmus standardmäßig nicht unterstützt. Wenn Sie diesen Planungsalgorithmus verwenden möchten, installieren Sie bitte das Modul upstream_fair

url_hash: Ordnen Sie Anfragen entsprechend dem Hash-Ergebnis der aufgerufenen URL und der URL zu jeder Anfrage verweist auf einen festen Speicherort im Backend. Ein Server kann die Caching-Effizienz verbessern, wenn Nginx als statischer Server verwendet wird. Es ist auch zu beachten, dass Nginx diesen Planungsalgorithmus standardmäßig nicht unterstützt. Wenn Sie ihn verwenden möchten, müssen Sie das Nginx-Hash-Softwarepaket installieren Laden Sie wie in der Abbildung unten gezeigt die entsprechende Version herunter. Dekomprimieren Sie einfach das mit Nginx komprimierte Paket in den Ordner, in dem die Software auf Ihrem Computer gespeichert ist. Nach Abschluss der Dekomprimierung sieht die Dateiverzeichnisstruktur wie folgt aus:

Starten Sie nginx

1) Doppelklicken Sie direkt auf nginx in diesem Verzeichnis, um den Nginx-Server zu starten.

Beispielanalyse für Nginx-Installation und -Konfiguration2) Durch Ausführen des Nginx-Befehls wird auch der Nginx-Server direkt gestartet Besuchen Sie nginx

Öffnen Sie den Browser und geben Sie die Adresse ein: http:// localhost, greifen Sie auf die Seite zu. Die folgende Seite zeigt einen erfolgreichen Zugriff an

Beispielanalyse für Nginx-Installation und -Konfiguration

Stoppen Sie nginx

Befehlszeile zum Aufrufen des Nginx-Stammverzeichnisses und Ausführen Befolgen Sie den folgenden Befehl, um den Server zu stoppen:

https://nginx.org/en/download.html
Nach dem Login kopieren

Beispielanalyse für Nginx-Installation und -Konfiguration2. Folgen Sie der normalen Software-Installationsmethode: Installieren Sie direkt über den folgenden Befehl:

d:/resp_application/nginx-1.13.5> nginx
Nach dem Login kopieren

Die Installation ist abgeschlossen. Das Verzeichnis ist das Verzeichnis, in dem sich der Nginx-Befehl befindet, und das Verzeichnis /etc/nginx/ enthält alle Nginx-Konfigurationsdateien. Wird zum Konfigurieren des Nginx-Servers und der Lastausgleichsinformationen verwendet

Beispielanalyse für Nginx-Installation und -KonfigurationÜberprüfen Sie, ob der Nginx-Prozess gestartet wird

# 强制停止nginx服务器,如果有未处理的数据,丢弃
d:/resp_application/nginx-1.13.5> nginx -s stop

# 优雅的停止nginx服务器,如果有未处理的数据,等待处理完成之后停止
d:/resp_application/nginx-1.13.5> nginx -s quit
Nach dem Login kopieren

nginx wird automatisch gestartet Erstellen Sie die entsprechende Anzahl von Prozessen basierend auf der Anzahl der Kerne der CPU des aktuellen Hosts (der aktuelle Ubuntu-Host ist mit 2 Kernen und 4 Threads konfiguriert)

Beispielanalyse für Nginx-Installation und -KonfigurationHinweis: Die hier gestarteten Dienstprozesse sind eigentlich 4 Prozesse, denn wann Wenn der Nginx-Prozess gestartet wird, wird er von einem Daemon-Prozess begleitet, um den offiziellen Prozess vor einem abnormalen Beenden zu schützen. Wenn der Daemon-Prozess zurückkehrt, wird die Nginx-Vererbung beendet. Der Prozess wird automatisch neu gestartet.

Der Daemon-Prozess wird im Allgemeinen als Master-Prozess bezeichnet, und der Geschäftsprozess wird als Worker-Prozess bezeichnet.

Starten Sie den Nginx-Serverbefehl Nginx-Dienstbefehl

和windows系统执行过程一样,两种停止方式

$ nginx -s stop
or
$ nginx -s quit
Nach dem Login kopieren

Beispielanalyse für Nginx-Installation und -Konfiguration

重新启动加载

同样也可以使用命令reopen和reload来重新启动nginx或者重新加载配合着文件。

3. mac os安装

直接通过brew进行nginx的安装,或者下载tar.gz压缩包都是可以的。

直接通过brew进行安装

brew install nginx
Nach dem Login kopieren

安装完成后,后续的命令操作,服务器的启动、进程查看、服务器的停止、服务器的重启已经文件加载命令都是一致的。

nginx配置

nginx是一个功能非常强大的web服务器加反向代理服务器,同时又是邮件服务器等等

在项目使用中,使用最多的三个核心功能是反向代理、负载均衡和静态服务器

这三个不同的功能的使用,都跟nginx的配置密切相关,nginx服务器的配置信息主要集中在nginx.conf这个配置文件中,并且所有的可配置选项大致分为以下几个部分

main                # 全局配置

events {              # nginx工作模式配置

}

http {                # http设置
....

server {            # 服务器主机配置
....
location {          # 路由配置
....
}

location path {
....
}

location otherpath {
....
}
}

server {
....

location {
....
}
}

upstream name {          # 负载均衡配置
....
}
}
Nach dem Login kopieren

如上述配置文件所示,主要由6个部分组成:

main:用于进行nginx全局信息的配置 events:用于nginx工作模式的配置 http:用于进行http协议信息的一些配置 server:用于进行服务器访问信息的配置 location:用于进行访问路由的配置 upstream:用于进行负载均衡的配置 main模块

观察下面的配置代码

# user nobody nobody;
worker_processes 2;
# error_log logs/error.log
# error_log logs/error.log notice
# error_log logs/error.log info
# pid logs/nginx.pid
worker_rlimit_nofile 1024;
Nach dem Login kopieren

上述配置都是存放在main全局配置模块中的配置项

user用来指定nginx worker进程运行用户以及用户组,默认nobody账号运行 worker_processes指定nginx要开启的子进程数量,运行过程中监控每个进程消耗内存(一般几m~几十m不等)根据实际情况进行调整,通常数量是cpu内核数量的整数倍 error_log定义错误日志文件的位置及输出级别【debug / info / notice / warn / error / crit】 pid用来指定进程id的存储文件的位置 worker_rlimit_nofile用于指定一个进程可以打开最多文件数量的描述 event 模块

上干货

event {
worker_connections 1024;
multi_accept on;
use epoll;
}
Nach dem Login kopieren

上述配置是针对nginx服务器的工作模式的一些操作配置

worker_connections 指定最大可以同时接收的连接数量,这里一定要注意,最大连接数量是和worker processes共同决定的。 multi_accept 配置指定nginx在收到一个新连接通知后尽可能多的接受更多的连接 use epoll 配置指定了线程轮询的方法,如果是linux2.6+,使用epoll,如果是bsd如mac请使用kqueue http模块

作为web服务器,http模块是nginx最核心的一个模块,配置项也是比较多的,项目中会设置到很多的实际业务场景,需要根据硬件信息进行适当的配置,常规情况下,使用默认配置即可!

http {
##
# 基础配置
##
sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 65;
types_hash_max_size 2048;
# server_tokens off;
# server_names_hash_bucket_size 64;
# server_name_in_redirect off;
include /etc/nginx/mime.types;
default_type application/octet-stream;
##
# ssl证书配置
##
ssl_protocols tlsv1 tlsv1.1 tlsv1.2; # dropping sslv3, ref: poodle
ssl_prefer_server_ciphers on;
##
# 日志配置
##
access_log /var/log/nginx/access.log;
error_log /var/log/nginx/error.log;
##
# gzip 压缩配置
##
gzip on;
gzip_disable "msie6";
# gzip_vary on;
# gzip_proxied any;
# gzip_comp_level 6;
# gzip_buffers 16 8k;
# gzip_http_version 1.1;
# gzip_types text/plain text/css application/json application/javascript
text/xml application/xml application/xml+rss text/javascript;

##
# 虚拟主机配置
##
include /etc/nginx/conf.d/*.conf;
include /etc/nginx/sites-enabled/*;
Nach dem Login kopieren

1) 基础配置

sendfile on:配置on让sendfile发挥作用,将文件的回写过程交给数据缓冲去去完成,而不是放在应用中完成,这样的话在性能提升有有好处
tc_nopush on:让nginx在一个数据包中发送所有的头文件,而不是一个一个单独发
tcp_nodelay on:让nginx不要缓存数据,而是一段一段发送,如果数据的传输有实时性的要求的话可以配置它,发送完一小段数据就立刻能得到返回值,但是不要滥用哦
keepalive_timeout 10:给客户端分配连接超时时间,服务器会在这个时间过后关闭连接。一般设置时间较短,可以让nginx工作持续性更好
client_header_timeout 10:设置请求头的超时时间
client_body_timeout 10:设置请求体的超时时间
send_timeout 10:指定客户端响应超时时间,如果客户端两次操作间隔超过这个时间,服务器就会关闭这个链接
limit_conn_zone $binary_remote_addr zone=addr:5m :设置用于保存各种key的共享内存的参数,
limit_conn addr 100: 给定的key设置最大连接数
server_tokens:虽然不会让nginx执行速度更快,但是可以在错误页面关闭nginx版本提示,对于网站安全性的提升有好处哦
include /etc/nginx/mime.types:指定在当前文件中包含另一个文件的指令
default_type application/octet-stream:指定默认处理的文件类型可以是二进制
type_hash_max_size 2048:混淆数据,影响三列冲突率,值越大消耗内存越多,散列key冲突率会降低,检索速度更快;值越小key,占用内存较少,冲突率越高,检索速度变慢
Nach dem Login kopieren

2) 日志配置

access_log logs/access.log:设置存储访问记录的日志
error_log logs/error.log:设置存储记录错误发生的日志
Nach dem Login kopieren

3) ssl证书加密

ssl_protocols:指令用于启动特定的加密协议,nginx在1.1.13和1.0.12版本后默认是ssl_protocols sslv3 tlsv1 tlsv1.1 tlsv1.2,tlsv1.1与tlsv1.2要确保openssl >= 1.0.1 ,sslv3 现在还有很多地方在用但有不少被攻击的漏洞。
ssl prefer server ciphers:设置协商加密算法时,优先使用我们服务端的加密套件,而不是客户端浏览器的加密套件
Nach dem Login kopieren

4) 压缩配置

gzip 是告诉nginx采用gzip压缩的形式发送数据。这将会减少我们发送的数据量。
gzip_disable 为指定的客户端禁用gzip功能。我们设置成ie6或者更低版本以使我们的方案能够广泛兼容。
gzip_static 告诉nginx在压缩资源之前,先查找是否有预先gzip处理过的资源。这要求你预先压缩你的文件(在这个例子中被注释掉了),从而允许你使用最高压缩比,这样nginx就不用再压缩这些文件了(想要更详尽的gzip_static的信息,请点击这里)。
gzip_proxied 允许或者禁止压缩基于请求和响应的响应流。我们设置为any,意味着将会压缩所有的请求。
gzip_min_length 设置对数据启用压缩的最少字节数。如果一个请求小于1000字节,我们最好不要压缩它,因为压缩这些小的数据会降低处理此请求的所有进程的速度。
gzip_comp_level 设置数据的压缩等级。这个等级可以是1-9之间的任意数值,9是最慢但是压缩比最大的。我们设置为4,这是一个比较折中的设置。
gzip_type 设置需要压缩的数据格式。上面例子中已经有一些了,你也可以再添加更多的格式。
Nach dem Login kopieren

5) 文件缓存配置

open_file_cache 打开缓存的同时也指定了缓存最大数目,以及缓存的时间。我们可以设置一个相对高的最大时间,这样我们可以在它们不活动超过20秒后清除掉。
open_file_cache_valid 在open_file_cache中指定检测正确信息的间隔时间。
open_file_cache_min_uses 定义了open_file_cache中指令参数不活动时间期间里最小的文件数。
open_file_cache_errors 指定了当搜索一个文件时是否缓存错误信息,也包括再次给配置中添加文件。我们也包括了服务器模块,这些是在不同文件中定义的。如果你的服务器模块不在这些位置,你就得修改这一行来指定正确的位置。
Nach dem Login kopieren

server模块

srever模块配置是http模块中的一个子模块,用来定义一个虚拟访问主机,也就是一个虚拟服务器的配置信息

server {
listen    80;
server_name localhost  192.168.1.100;
root    /nginx/www;
index    index.php index.html index.html;
charset    utf-8;
access_log  logs/access.log;
error_log  logs/error.log;
......
}
Nach dem Login kopieren

核心配置信息如下:

server:一个虚拟主机的配置,一个http中可以配置多个server

server_name:用力啊指定ip地址或者域名,多个配置之间用空格分隔

root:表示整个server虚拟主机内的根目录,所有当前主机中web项目的根目录

index:用户访问web网站时的全局首页

charset:用于设置www/路径中配置的网页的默认编码格式

access_log:用于指定该虚拟主机服务器中的访问记录日志存放路径

error_log:用于指定该虚拟主机服务器中访问错误日志的存放路径

location模块

location模块是nginx配置中出现最多的一个配置,主要用于配置路由访问信息

在路由访问信息配置中关联到反向代理、负载均衡等等各项功能,所以location模块也是一个非常重要的配置模块

基本配置

location / {
root  /nginx/www;
index  index.php index.html index.htm;
}
Nach dem Login kopieren

location /:表示匹配访问根目录

root:用于指定访问根目录时,访问虚拟主机的web目录

index:在不指定访问具体资源时,默认展示的资源文件列表

反向代理配置方式

通过反向代理代理服务器访问模式,通过proxy_set配置让客户端访问透明化

location / {
proxy_pass http://localhost:8888;
proxy_set_header x-real-ip $remote_addr;
proxy_set_header host $http_host;
}
Nach dem Login kopieren

uwsgi配置

wsgi模式下的服务器配置访问方式

location / {
include uwsgi_params;
uwsgi_pass localhost:8888
}
Nach dem Login kopieren

upstream模块

upstream模块主要负责负载均衡的配置,通过默认的轮询调度方式来分发请求到后端服务器

简单的配置方式如下

upstream name {
ip_hash;
server 192.168.1.100:8000;
server 192.168.1.100:8001 down;
server 192.168.1.100:8002 max_fails=3;
server 192.168.1.100:8003 fail_timeout=20s;
server 192.168.1.100:8004 max_fails=3 fail_timeout=20s;
}
Nach dem Login kopieren

核心配置信息如下

ip_hash:指定请求调度算法,默认是weight权重轮询调度,可以指定

server host:port:分发服务器的列表配置

--down: Zeigt an, dass der Host den Dienst angehalten hat Wenn die Anfrage nicht angenommen wird, wird die Anfrage erneut gestartet, nachdem die angegebene Zeit pausiert wurde

Das obige ist der detaillierte Inhalt vonBeispielanalyse für Nginx-Installation und -Konfiguration. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:yisu.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!