linux 负载均衡

介绍

主流开源软件LVS、keepalived、haproxy、nginx等 其中LVS属于4层(网络OSI 7层模型),nginx属于7层,haproxy既可以认为是4层,也可以当做7层使用。

keepalived的负载均衡功能其实就是lvs。

lvs这种4层的负载均衡是可以分发除80外的其他端口通信的,比如MySQL的,而nginx仅仅支持http,https,mail,haproxy也支持MySQL这种 相比较来说,LVS这种4层的更稳定,能承受更多的请求,而nginx这种7层的更加灵活,能实现更多的个性化需求。

LVS是由国人章文嵩开发 流行度不亚于apache的httpd,基于TCP/IP做的路由和转发,稳定性和效率很高。

LVS最新版本基于Linux内核2.6,有好多年不更新了。

LVS有三种常见的模式:NAT、DR、IP Tunnel。 LVS架构中有一个核心角色叫做分发器(Load balance),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)。

LVS 模式

LVS NAT模式

这种模式借助iptables的nat表来实现 用户的请求到分发器后,通过预设的iptables规则,把请求的数据包转发到后端的rs上去。 rs需要设定网关为分发器的内网ip 用户请求的数据包和返回给用户的数据包全部经过分发器,所以分发器成为瓶颈。 在nat模式中,只需要分发器有公网ip即可,所以比较节省公网ip资源。

LVS IP Tunnel模式

这种模式,需要有一个公共的IP配置在分发器和所有rs上,我们把它叫做vip 客户端请求的目标IP为vip,分发器接收到请求数据包后,会对数据包做一个加工,会把目标IP改为rs的IP,这样数据包就到了rs上 rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己。

LVS DR模式

这种模式,也需要有一个公共的IP配置在分发器和所有rs上,也就是vip 和IP Tunnel不同的是,它会把数据包的MAC地址修改为rs的MAC地址 rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己。

LVS 调度算法

  • 轮询 Round-Robin rr

  • 加权轮询 Weight Round-Robin wrr

  • 最小连接 Least-Connection lc

  • 加权最小连接 Weight Least-Connection wlc

  • 基于局部性的最小连接 Locality-Based Least Connections lblc

  • 带复制的基于局部性最小连接 Locality-Based Least Connections with Replication lblcr

  • 目标地址散列调度 Destination Hashing dh

  • 源地址散列调度 Source Hashing sh

LVS 搭建

LVS NAT模式搭建

准备:三台机器

  • 分发器,也叫调度器(简写为dir) 内网:192.168.127.128,外网:192.168.126.128(vmware仅主机模式)

  • rs1 内网:192.168.127.129

  • rs2 内网:192.168.127.130

注意:内网两台主机的网管设置为分发器内网的IP 192.168.127.128

在dir下操作

安装

yum install -y ipvsadm

为了方便,编写一个脚本/usr/local/sbin/lvs_nat.sh

#! /bin/bash
# director 服务器上开启路由转发功能:
echo 1 > /proc/sys/net/ipv4/ip_forward
# 关闭icmp的重定向
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirects

# director 设置nat防火墙
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.127.0/24  -j MASQUERADE    #转发规则
# director设置ipvsadm
IPVSADM='/sbin/ipvsadm'
$IPVSADM -C
$IPVSADM -A -t 192.168.126.128:80 -s rr          #-t后跟外网IP -s后跟算法 wrr权重轮询
$IPVSADM -a -t 192.168.126.128:80 -r 192.168.127.129:80 -m #-w N 权重为N  -a为rs上添加规则
$IPVSADM -a -t 192.168.126.128:80 -r 192.168.127.130:80 -m

测试,两台rs都安装nginx并启动

[root@localhost ~]# curl 192.168.126.128
<h1>192.168.127.130</h1>
[root@localhost ~]# curl 192.168.126.128
<h1>192.168.127.129</h1>
[root@localhost ~]# curl 192.168.126.128
<h1>192.168.127.130</h1>
[root@localhost ~]# curl 192.168.126.128
<h1>192.168.127.129</h1>
[root@localhost ~]# curl 192.168.126.128
<h1>192.168.127.130</h1>

LVS DR模式搭建

LVS的DR设置

三台机器:

  • director(eth0 192.168.127.128, vip eth0:0 192.168.127.140)

  • real server1(eth0 vip 192.168.127.129, vip lo:0 192.168.127.140)

  • real server2(eth0 vip 192.168.127.130, vip lo:0 192.168.127.140)

在director上

/usr/local/sbin/lvs.sh


#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward
ipv=/sbin/ipvsadm
vip=192.168.127.140
rs1=192.168.127.129
rs2=192.168.127.130

# 注意网卡名
ifconfig ens33:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip dev ens33:0
$ipv -C
$ipv -A -t $vip:80 -s rr
$ipv -a -t $vip:80 -r $rs1:80 -g -w 1
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1

在两台real server上

/usr/local/sbin/lvs.sh

#! /bin/bash
vip=192.168.127.140
ifconfig lo:0 $vip broadcast $vip network 255.255.255.255 up
route add -host $vip lo:0
echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce

分别启动脚本和nginx,用http://192.168.127.140测试

LVS/DR + keepalived配置

注意:前面虽然我们已经配置过一些操作,但是下面我们使用keepaliave操作和之前的操作是有些冲突的,所以若是之前配置过DR,请首先做如下操作:dr上执行:

$ipv -C
ifconfig eth0:0  down

前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把httpd进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常。所以需要有一种机制用来检测real server的状态,这就是keepalived。它的作用除了可以检测rs状态外,还可以检测备用director的状态,也就是说keepalived可以实现ha集群的功能,当然了也需要一台备用director。

备用director也需要安装一下keepalived软件

yum install -y keepalived

安装好后,编辑配置文件

vim /etc/keepalived/keepalived.conf   
# 加入如下:

vrrp_instance VI_1 {
    state MASTER   #备用服务器上为 BACKUP
    interface ens33
    virtual_router_id 51
    priority 100  #备用服务器上为90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.0.100
    }
}
virtual_server 192.168.127.100 80 {
    delay_loop 6                  #(每隔10秒查询realserver状态)
    lb_algo wlc                  #(lvs 算法)
    lb_kind DR                  #(Direct Route)
    persistence_timeout 60        #(同一IP的连接60秒内被分配到同一台realserver)
    protocol TCP                #(用TCP协议检查realserver状态)

    real_server 192.168.127.129 80 {
        weight 100               #(权重)
        TCP_CHECK {
            connect_timeout 10       #(10秒无响应超时)
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
        }
    }
real_server 192.168.127.130 80 {
        weight 100
        TCP_CHECK {
            connect_timeout 10
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
        }
     }
}

以上为主director的配置文件,从director的配置文件只需要修改

state MASTER  -> state BACKUP
priority 100 -> priority 90

配置完keepalived后,需要开启端口转发(主从都要做):

echo 1 > /proc/sys/net/ipv4/ip_forward

然后,两个rs上执行 /usr/local/sbin/lvs_dr_rs.sh 脚本

最后,两个director上启动keepalived服务(先主后从):

systemctl start keepalived

另外,需要注意的是,启动keepalived服务会自动生成vip和ipvsadm规则,不需要再去执行上面提到的/usr/local/sbin/lvs_dr.sh 脚本。

最后更新于

这有帮助吗?