动用HAProxy代理SQL Server的AlwaysOn帮助别本

店肆近期数据库进级到SQL Server二零一五 ,并配备了alwayson高可用集群

机室内有三套程序须求读取数据库

先是套:主程序,读写数据库,连接主副本

第二套:报表程序,读报表,连接协理别本

其三套:历史库程序,读历史库,连接扶持别本

 

软件条件

图片 1

机械景况

图片 2

 

架构图

图片 3

为什麽必要运用HAProxy?

前边机房里面有二零零一个顶峰,那个极端是三个相当的小的嵌入式设备,第二套报表程序原本是选拔直连数据库IP(10.11.10.36)来连接数据库

但诸有此类有三个害处,当36那台扶植别本宕机,那么报表程序就瘫痪了,因为二〇〇〇个终端要转移数据库连接供给烧写程序到巅峰里面特别耗时

或然要几天时间

 

最后决定利用HAProxy做负载均衡和TCP连接重定向

运用HAProxy有多少个低价

1、前端无需后端数据库的莫过于IP,当要求升高后端数据库,比方打补丁的时候特别福利

2、HAProxy可以自动质量评定后端数据库服务,探测1433端口是还是不是存活,如若1433端口出难题,能够自动重定向连接到37这台帮忙副本

3、减轻单台读库压力,使用CR-V揽胜极光轮询算法,央浼均衡分发到36和37这两台扶持副本,缓慢解决36那台机械的压力

图片 4

 

 


HAProxy相关配置步骤

 

#yum安装,版本是1.5.4

yum install -y haproxy.x86_64

 

 

#编辑rsyslog 文件,修改为-c 2 -r -x -m

vi /etc/sysconfig/rsyslog
SYSLOGD_OPTIONS="-c 2 -m 0 -r -x"

 

 

#编排rsyslog.conf 文件加多两行local3.*  和local0.*

vi /etc/rsyslog.conf
local7.*                                                /var/log/boot.log
local3.*                                                /var/log/haproxy.log
local0.*                                               /var/log/haproxy.log

 

 

 

#重启rsyslog服务

service rsyslog restart

 

 

# 编辑haproxy配置文件 下边以mssql从库负载均衡为例

vi /etc/haproxy/haproxy.cfg

global
log 127.0.0.1 local2 
chroot /var/lib/haproxy 
pidfile /var/run/haproxy.pid 
maxconn 6000 
user haproxy 
group haproxy 
daemon 
#stats socket /var/lib/haproxy/stats     
stats socket /var/run/haproxy.sock mode 666 level admin
stats timeout 2m


defaults 
mode http 
log                 127.0.0.1:514       local3                     
option                  dontlognull
#option http-server-close
#option forwardfor       except 127.0.0.0/8
option redispatch
retries 3 
timeout http-request 10s 
timeout connect 10s 
timeout client 1m 
timeout server 1m 
timeout http-keep-alive 10s
timeout check 10s
maxconn 6000





listen stats 
mode http
bind *:2080
stats enable
stats refresh 30s
stats uri /haproxyadminstats
stats realm HAProxy Statistics
stats auth admin:admin
stats admin if TRUE


listen mssql :1433
mode tcp
balance roundrobin
server mssqldb1 10.11.10.36:1433 weight 1 maxconn 6000 check port 1433 inter 2000 rise 2 fall 2
server mssqldb2 10.11.10.37:1433 weight 1 maxconn 6000 check port 1433 inter 2000 rise 2 fall 2

 

 

#反省陈设文件是还是不是有语法错误

haproxy -f /etc/haproxy/haproxy.cfg -c
Configuration file is valid

 

#启动haproxy

/etc/init.d/haproxy start

 

 

#自己商议haproxy是还是不是在监听

netstat -lntp

 

在乎:Centos机器只要求动用一个网口,无需万分扩展网口

图片 5

#开辟后台处理分界面

 

HAProxy提供了七个后台管理分界面

图片 6

 

查看haproxy的日志

cat /var/log/haproxy.log

图片 7


测量试验评释

使用SSMS2016来连接HAProxy的IP

10.11.10.39

图片 8

现行反革命是连连到GZC-SQL03那台机

 

当今把 GZC-SQL03那台机的SQL服务停了

图片 9

HAProxy已经探测到 GZC-SQL03这台机的SQL服务停了

图片 10

 再一次点击一下执行开关,能够窥见早就重定向到 GZC-SQL02那台机

图片 11

 

 

就算经过HAProxy那黄金时代层,可是质量方面也不算太差

图片 12


 

HAProxy的通讯格局

通讯方式左近于LVS的NAT方式

LVS的NAT情势(调整器将倡议的目的ip即vip地址改为Real server的ip,
重回的数据包也通过调治器,调节器再把源地址改良为vip)

图片 13

图片 14

 

 


总结

线上景况使用HAProxy已经大概1个月,到以后尚未现身过难题,相比牢固

对此HAProxy原理上的事物这里就不呈报了,网络有数不完资料

 

参照小说:

 

假诺是各样工作应用不相同端口,能够运用上边包车型客车配备文件

诸如报表使用1433端口,BI抽出数据选取2433端口

vi /etc/haproxy/haproxy.cfg
global
    log         127.0.0.1 local2 
    chroot      /var/lib/haproxy       
    pidfile     /var/run/haproxy.pid     
    maxconn     6000                               
    user        haproxy           
    group       haproxy           
    daemon
    #stats socket /var/lib/haproxy/stats 
    stats socket /var/run/haproxy.sock mode 666 level admin
    stats timeout 2m




defaults         
    mode                    http               
    log                     global                         
    option                  dontlognull
    option http-server-close
    option forwardfor       except 127.0.0.0/8
    option                  redispatch
    retries                 3                 
    timeout http-request    10s        
    timeout connect         10s               
    timeout client          1m                 
    timeout server          1m                 
    timeout http-keep-alive 10s
    timeout check           10s
    maxconn                 6000               





listen stats     
    mode http
    bind *:2080
    stats enable
    stats refresh 30s
    stats uri   /haproxyadminstats
    stats realm  HAProxy Statistics
    stats auth   admin:admin
    stats admin if TRUE


listen mssql :1433
    mode tcp
    balance roundrobin
    server mssqldb1 10.11.10.36:1433  weight 1 maxconn 6000 check port 1433 inter 2000  rise 2 fall 2
    server mssqldb2 10.11.10.37:1433  weight 1 maxconn 6000 check port 1433 inter 2000  rise 2 fall 2


listen mssql2 :2433
    mode tcp
    balance leastconn
    server mssqldb3 10.11.10.37:1433   maxconn 6000 check port 1433 inter 2000  rise 2 fall 2

 

 

如有不没有错地点,招待大家拍砖o(∩_∩)o 

正文版权归小编全部,未经作者同意不得转发。

负载均衡集群介绍

  • 主流开源软件LVS、keepalived、haproxy、nginx等
  • 里面LVS属于4层(互连网OSI
    7层模型),nginx属于7层,haproxy不仅能以为是4层,也得以当做7层使用
  • keepalived的负载均衡成效实在就是lvs
  • lvs这种4层的载荷均衡是足以分发TCP契约,web服务是80端口,除了分发80端口,还有其余的端口通讯的,例如MySQL的载重均衡,就可以用LVS完结,而nginx仅仅帮助http,https,mail,haproxy;haproxy也支撑MySQL这种TCP负载均衡的
  • 相相比来讲,LVS这种4层的更安定,能选用更加多的伏乞,承载的并发量越来越高,而nginx这种7层的更灵活,能兑现更加的多的性情化需求

LVS介绍

  • LVS是由国人章文嵩开采
  • 流行度不亚于apache的httpd,基于TCP/IP做的路由和转载,稳固性和频率超级高
  • LVS最新版本基于Linux内核2.6,有超多年不更新了
  • LVS有两种普及的方式:NAT、DCRUISER、IP Tunnel
  • LVS架构中有一个大旨剧中人物叫做分发器(Load
    balance),它用来散发顾客的伸手,还大概有非常多拍卖顾客乞请的服务器(Real
    Server,简单称谓rs)

LVS NAT模式

图片 15

  • 依傍iptables的nat表来贯彻
  • 客商的呼吁到分发器后,通过预设的iptables准则,把央浼的多寡包转载到后端的rs上去
  • rs需求设定网关为分发器的内网ip
  • 顾客乞请的数据包和重返给客商的多少包全部透过分发器,所以分发器成为瓶颈
  • 在nat情势中,只供给分发器有公网ip就可以,所以相比节省公网ip能源

LVS IP Tunnel模式

图片 16

  • 这种形式,要求有八个集体的IP配置在分发器和富有rs上,我们把它叫做vip
  • 客商端伏乞的对象IP为vip,分发器选择到诉求数据包后,会对数码包做贰个加工,会把目标IP改为rs的IP,那样数据包就到了rs上
  • rs选拔数据包后,会过来原始数据包,那样目的IP为vip,因为有着rs上铺排了这一个vip,所以它会认为是它自个儿

LVS DR模式

图片 17

  • 这种形式,也亟需有一个共用的IP配置在分发器和富有rs上,也正是vip
  • 和IP Tunnel差异的是,它会把数据包的MAC地址校正为rs的MAC地址
  • rs接受数据包后,会重振旗鼓原始数据包,那样目的IP为vip,因为兼具rs上布置了这几个vip,所以它会感到是它协和

LVS调治算法

  • 轮询 Round-Robin rr
  • 加权轮询 Weight Round-罗布in wrr
  • 渺小连接 Least-Connection lc
  • 加权最小连接 Weight Least-Connection wlc
  • 依据局地性的小不点儿连接 Locality-Based Least Connections lblc
  • 带复制的依赖局部性最小连接 Locality-Based Least Connections with
    Replication lblcr
  • 对象地点散列调整 Destination Hashing dh
  • 源地址散列调整 Source Hashing sh

常用的算法是前四种

LVS NAT格局搭建

希图干活

  • 三台机器
  • 分发器,也叫调节器(简写为dir)
  • 内网:133.130,外网:142.147(vmware仅主机形式)
  • rs1
  • 内网:133.132,设置网关为133.130
  • rs2
  • 内网:133.133,设置网关为133.130
  • 三台机械上都实行实践
  • systemctl stop firewalld; systemc disable firewalld
  • systemctl start iptables-services; iptables -F; service iptables
    save

NAT情势搭建

  • 在dir上安装ipvsadm
  • yum install -y ipvsdam
  • 在dir上编写制定脚本,vim /usr/local/sbin/lvs_nat.sh//内容如下

#! /bin/bash
# director 服务器上开启路由转发功能
echo 1 > /proc/sys/net/ipv4/ip_forward
# 关闭icmp的重定向
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
# 注意区分网卡名字,阿铭的两个网卡分别为ens33和ens37
echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirects
# director 设置nat防火墙
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.133.0/24  -j MASQUERADE
# director设置ipvsadm
IPVSADM='/usr/sbin/ipvsadm'
$IPVSADM -C
$IPVSADM -A -t 192.168.147.144:80 -s wlc -p 3
$IPVSADM -a -t 192.168.147.144:80 -r 192.168.133.132:80 -m -w 1
$IPVSADM -a -t 192.168.147.144:80 -r 192.168.133.133:80 -m -w 1

NAT格局功效测量试验

  • 两台rs上都安装nginx
  • 设置两台rs的主页,做三个区分,也正是说直接curl两台rs的ip时,获得差别的结果
  • 浏览器里拜候192.168.142.147,多访谈一次看结果差异

预备三台机器,风姿洒脱台作为分发器(内网:133.130,外网:142.147),别的两台是real
server,分别为rs1(内网:133.132,网关为133.130)和rs2(内网:133.133,网关为133.130)

分发器增添一块网卡,查看网卡网段,所以设置IP192.168.142.147

图片 18

图片 19

图片 20

然后查看是不是ping通

图片 21

三台机器配置好了今后,全部亟需关闭防火墙

图片 22

然后在rs1,rs2上安装iptables-services包,启动iptables服务

图片 23

 systemctl start iptables
 systemctl enable iptables

接下来调用新准则,以防暗中认可法规影响实验效果;最终关闭selinux,最棒校正下布署文件

图片 24

图片 25

图片 26

安装ipvsadm工具

图片 27

下一场编写脚本,vim
/usr/local/sbin/lvs_nat.sh,保存退出;然后施行该脚本sh
/usr/local/sbin/lvs_nat.sh,脚本无输出表示无不当

图片 28

$IPVSADM -A -t 192.168.147.144:80 -s rr -p 3
#-A:=add,加多准则;-t:=tcp;-s 钦点算法; -p:钦赐超时时间

在rs1和rs2上设置nginx,并各自校勘主页内容

图片 29

图片 30

下一场能够做测量试验,如下表示测量检验成功

图片 31

扩展

lvs 二种格局详整

lvs二种算法

关于arp_ignore和
arp_announce

lvs原理相关的

相关文章