大家好,又见面了,我是你们的朋友全栈君。
Nginx 是一个很强大的高性能Web和反向代理服务,它具有很多非常优越的特性:
在连接高并发的情况下,Nginx是Apache服务不错的替代品:Nginx在美国是做虚拟主机生意的老板们经常选择的软件平台之一。能够支持高达 50,000 个并发连接数的响应,感谢Nginx为我们选择了 epoll and kqueue作为开发模型。
下面是6种负载均衡算法:
<code style="margin-left:0">1、轮询(默认) 每个请求按时间顺序逐一分配到不同的后端<a href="https://www.mhzhuji.com/kwck/txcloud" class="lar_link lar_link_outgoing" data-linkid="205" data-postid="1407" title="腾讯云" rel="nofollow" target="_blank" >服务器</a>,如果后端服务器down掉,能自动删除。 2、weight 指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。 3、ip_hash 每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端<a href="https://www.mhzhuji.com/kwck/txcloud" class="lar_link lar_link_outgoing" data-linkid="205" data-postid="1407" title="腾讯云" rel="nofollow" target="_blank" >服务器</a>,可以解决session 保持的问题。 4、fair(第三方) 可以依据页面大小和加载时间长短智能地进行<a href="https://www.mhzhuji.com/kwck/4v" class="lar_link lar_link_outgoing" data-linkid="207" data-postid="1407" title="网络专场" rel="nofollow" target="_blank" >负载均衡</a>,也就是根据后端服务器的响应时间来分配请求,响应时间短的优先分配,Nginx本身默认是不支持fair的,如果需要使用这种调度算法,必须下载Nginx的upstream_fair模块。 5、url_hash(第三方) 按访问url的hash结果来分配请求,使每个url定向到同一个后端<a href="https://www.mhzhuji.com/kwck/txcloud" class="lar_link lar_link_outgoing" data-linkid="205" data-postid="1407" title="腾讯云" rel="nofollow" target="_blank" >服务器</a>,可以进一步提高后端缓存服务器的效率,Nginx本身默认是不支持url_hash的,如果需要这种高度算法,必须安装Nginx的hash软件包。 6、least_conn 根据后端服务器的连接状况进行分配客户请求,连接最少的服务器将被有限分配客户端请求。</code>
1.round robin(默认)
轮询方式,依次将请求分配到各个后台服务器中,默认的负载均衡方式;
适用场景:后台机器性能配置一致的情况下。 集群内的机器可以自动管理(恢复和剔除)。
2.weight
权重方式:根据权重来分发请求到不同的机器中,指定轮询几率,weight和访问比率成正比;
适用场景:后端服务器性能不均的情况。
例如:
<code style="margin-left:0">upstream bakend { server 192.168.1.13 weight=10; server 192.168.1.14 weight=10; }</code>
3. IP_hash
IP哈希方式:根据请求者ip的hash值将请求发送到后台服务器中,可以保证来自同一ip的请求被打到固定的机器上;
适用场景:解决session共享问题。
<code style="margin-left:0">upstream bakend { ip_hash; server 192.168.1.13:90; server 192.168.1.14:91; }</code>
4.url_hash(依赖第三方)
URL哈希方式:根据请求的url的hash值将请求分到不同的机器中;
适用场景:后台服务器为缓存的时候效率高。
例如:
在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
<code style="margin-left:0">upstream backend { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; }</code>
<code style="margin-left:0">upstream bakend{#定义负载均衡设备的Ip及设备状态 ip_hash; server 127.0.0.1:90 down; server 127.0.0.1:80 weight=2; server 127.0.0.1:60; server 127.0.0.1:70 backup; } </code>
在需要使用负载均衡的server中增加
<code style="margin-left:0">proxy_pass http://bakend/; </code>
每个设备的状态设置为:
1.down 表示单前的server暂时不参与负载
2.weight 默认为1.weight越大,负载的权重就越大。
3.max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
client_body_in_file_only 设置为On 可以讲client post过来的数据记录到文件中用来做debug
client_body_temp_path 设置记录文件的目录 可以设置最多3层目录
location 对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡
5. fair(第三方)
根据后台响应时间来分发请求,响应时间短的分发的请求多。
例如:
<code style="margin-left:0">upstream backend { server server1; server server2; fair; }</code>
6、least_conn
根据后端服务器的连接状况进行分配客户请求,连接最少的服务器将被有限分配客户端请求。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/182876.html原文链接:https://javaforall.cn
未经允许不得转载:木盒主机 » nginx负载均衡算法8种_权重负载均衡算法实现