三集群搭建,RabbitMQ单机集群搭建出现Error

参考链接:

测试环境:VMS007捌一 VMS007八贰 VMS003八6 (centos五.八)
一.先在3台机械上个别安装RabbitMQ Server

目录

[TOC]

一、前言
线上的
RabbitMQ用的是单节点,前段时间由于机械内存不足,产生了OOM,业务受到了震慑,故打算换成RabbitMQ集群。RabbitMQ格局有二种,分别是:单壹形式、普通格局、镜像形式,镜像格局才是RabbitMQ真正的HA方案,关于更详实的简绍,请移步到官网:
,上面是关于RabbitMQ集群的安插进度:

 

2.读取中间3个节点的cookie,并复制到别的节点(节点间通过cookie明确相互是不是可通讯)
五头之1均可:
sudo vim /var/lib/rabbitmq/.erlang.cookie
sudo vim $HOME/.erlang.cookie

一、基本概念

二、环境
erlang版本:
erlang-19.0.4-1.el7.CentOS.x86_64

全体步骤和参照链接相同。

叁.每一种运营节点
sudo service rabbitmq-server start

一.一、RabbitMQ集群概述

  通过 Erlang 的分布式特性(通过 magic cookie 认证节点)进行 RabbitMQ
集群,各 RabbitMQ
服务为对等节点,即每一种节点都提供服务给客户端连接,实行音信发送与吸收。

  那个节点通过 RabbitMQ HA
队列(镜像队列)进行消息队列结构复制。本方案中搭建
3个节点,并且都以磁盘节点(全体节点状态保持①致,节点完全对等),只要有任何1个节点能够工作,RabbitMQ
集群对外就能提供劳动。

rabbitmq版本:
rabbitmq-server-3.6.6

 

四.查看各节点中的RabbitMQ brokers
sudo rabbitmqctl cluster_status

壹.二、软件负载均衡器HAProxy

  HAProxy提供高可用性、负载均衡以及根据TCP和HTTP应用的代理,扶助虚拟主机,它是免费、飞快并且可相信的一种缓解方案。依照官方数据,其最高极限帮助10G的面世。HAProxy帮忙从肆层至柒层的互联网沟通,即覆盖全体的TCP协议。正是说,Haproxy
甚至还支持 Mysql 的均匀负载。

  HAProxy的特色是:
  一、HAProxy是协助虚拟主机的,,并能补助上万级别的总是;
  贰、能够补充Nginx的有个别欠缺比如Session的保持,cookie的指点等工作;
  三、帮助url检验后端的服务器出难点的检验会有很好的扶助;
  四、它跟LVS一样,本身只是就只是一款负载均衡软件;单纯从功效上来讲HAProxy更会比Nginx有更出色的负荷均衡速度,在出现处理上也是优于Nginx的;
  五、HAProxy能够对mysql读举办负荷均衡,对后端的MySQL节点进行检查实验和负载均衡,可是在后端的MySQL
slaves数量超越10台时品质比不上LVS,所以自身向我们推荐LVS+Keepalived;
  陆、可以提供4层,柒层代理。HAProxy支持三种重大的代办形式:”tcp”也即4层(大多用于邮件服务器、内部协议通讯服务器等),和7层(HTTP)。在四层形式下,HAProxy仅在客户端和服务器之间转载双向流量,7层情势下,HAProxy会分析协议,并且能因而同意、拒绝、调换、扩展、修改恐怕去除请求
(request)恐怕回应(response)里钦命内容来控制协议,那种操作要基于特定规则;
  7、HAProxy的算法今后也尤为多了,具体有如下八种:
  
  壹roundrobin,表示容易的轮询,那么些不多说,这一个是负载均衡基本都负有的;
三集群搭建,RabbitMQ单机集群搭建出现Error。     2static-rr,表示根据权重,提出关切;
     ③leastconn,表示最少连接者先处理,提议关心;
  
  4source,表示依据请求源IP,那几个跟Nginx的IP_hash机制类似,大家用其当作解决session难点的1种艺术,提出关切;
     五ri,表示依据请求的U奥德赛I;
     ⑥rl_param,表示依据请求的U牧马人l参数’balance url_param’ requires an
URL parameter name;
     柒hdr(name),表示依据HTTP请求头来锁定每一回HTTP请求;
  
  8rdp-cookie(name),表示依照据cookie(name)来锁定并哈希每1回TCP请求。

服务器主机名:
ip-172-3一-一三-114  磁盘节点
ip-172-3一-一伍-1贰4 内部存款和储蓄器节点
ip-172-3一-1一-216 内部存款和储蓄器节点

前捌部都健康,在第七步会报错Error: unable to perform an operation on
node ‘rabbit一@ClusterNode一’,具体如下图:

5.建集群
分别在VMS00386、VMS00782 上执行
sudo rabbitmqctl stop_app
sudo rabbitmqctl join_cluster –ram rabbit@VMS00781
sudo rabbitmqctl start_app
sudo rabbitmqctl stop_app
sudo rabbitmqctl join_cluster rabbit@VMS00781
sudo rabbitmqctl start_app

2、RabbitMQ的布局步骤

三、安装
1、erlang安装
a、wget

rpm -Uvh erlang-solutions-1.0-1.noarch.rpm
b、rpm –import

c、Add the following lines to some file in /etc/yum.repos.d/:
[erlang-solutions]
name=Centos $releasever – $basearch – Erlang Solutions
baseurl=
gpgcheck=1
gpgkey=
enabled=1
d、yum install erlang esl-erlang

亚洲必赢官网 1

6.排错
建集群进度中相遇如下错误:
sudo rabbitmqctl join_cluster –ram rabbit@VMS00386
Clustering node rabbit@VMS00782 with rabbit@VMS00386 …
Error: unable to connect to nodes [rabbit@VMS00386]: nodedown

2.1、安装 Erlang、RabbitMQ

  参考小说Ubuntu1四.04+RabbitMQ三.陆.三+Golang的特等实践

2、RabbitMQ 安装
a、 wget

b、tar -xvf rabbitmq-server-generic-unix-3.6.6.tar.xz
c、 mv rabbitmq_server-3.6.6 /data/rabbitmq
d、cd /data/rabbitmq/;./sbin/rabbitmq-server -detached

ping ClusterNode1结果常常:

DIAGNOSTICS

attempted to contact: [rabbit@VMS00386]
rabbit@VMS00386:
  * unable to connect to epmd (port 4369) on VMS00386: nxdomain
(non-existing domain)
current node details:

  • node name: ‘rabbitmqctl-8666@VMS00782’
  • home dir: /var/lib/rabbitmq
  • cookie hash: 50YO3zK+HJHos0tab1vHjg==
    化解之道:
    集群节点间需能互相走访,故种种集群节点的hosts文件应包罗集群内全部节点的音讯以保险相互解析
    vim /etc/hosts
    781’s IP   VMS00781
    782’s IP   VMS00782
    386’s IP   vms00386
    自此重启各节点中的rabbitmq

七.其余标题

cluster搭建起来后若在web管理工科具中rabbitmq_management的Overview的Nodes部分来看“Node statistics not
available”的音讯,表达在该节点上web管理插件还未启用。

平昔在显示提醒消息的节点上运营sudo
rabbitmq-plugins enable rabbitmq_management即可。

Error: mnesia_unexpectedly_running
由来:忘记先甘休stop_app
解决:sudo rabbitmqctl stop_app

若rabbitmq-server第3遍运维后hostname不能够被解析大概产生了转移则会促成运行失利
需举行如下操作
sudo rm -rf /var/lib/rabbitmq/mnesia(因为有关音讯会记录在此数据库)
重装RabbitMQ Server

#####################################################
RabbitMQ cluster 管理
#####################################################
壹.翻看集群状态
可个别在集群中逐条节点执行
sudo rabbitmqctl cluster_status

2.更改节点类型(内部存款和储蓄器型或磁盘型)
sudo rabbitmqctl stop_app
sudo rabbitmqctl change_cluster_node_type disc

sudo rabbitmqctl change_cluster_node_type ram
sudo rabbitmqctl start_app

三.重启cluster中的节点
终止有个别节点依旧节点down掉剩余节点不受影响
[op1@vms00386 ~]$ sudo rabbitmqctl stop
Stopping and halting node rabbit@vms00386 …

[op1@VMS00781 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@VMS00781 …
[{nodes,[{disc,[rabbit@VMS00781,rabbit@VMS00782,rabbit@vms00386]}]},
 {running_nodes,[rabbit@VMS00782,rabbit@VMS00781]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]

[op1@VMS00782 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@VMS00782 …
[{nodes,[{disc,[rabbit@VMS00781,rabbit@VMS00782,rabbit@vms00386]}]},
 {running_nodes,[rabbit@VMS00781,rabbit@VMS00782]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]

[op1@VMS00782 ~]$ sudo rabbitmqctl stop
Stopping and halting node rabbit@VMS00782 …

[op1@VMS00781 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@VMS00781 …
[{nodes,[{disc,[rabbit@VMS00781,rabbit@VMS00782,rabbit@vms00386]}]},
 {running_nodes,[rabbit@VMS00781]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]

待节点重启后活动追上别的节点
[op1@vms00386 ~]$ sudo service rabbitmq-server start
Starting rabbitmq-server: SUCCESS
rabbitmq-server.

[op1@VMS00781 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@VMS00781 …
[{nodes,[{disc,[rabbit@VMS00781,rabbit@VMS00782,rabbit@vms00386]}]},
 {running_nodes,[rabbit@vms00386,rabbit@VMS00781]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]

[op1@VMS00782 ~]$ sudo service rabbitmq-server start
Starting rabbitmq-server: SUCCESS
rabbitmq-server.

[op1@VMS00781 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@VMS00781 …
[{nodes,[{disc,[rabbit@VMS00781,rabbit@VMS00782,rabbit@vms00386]}]},
 {running_nodes,[rabbit@VMS00782,rabbit@vms00386,rabbit@VMS00781]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]

[op1@VMS00782 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@VMS00782 …
[{nodes,[{disc,[rabbit@VMS00781,rabbit@VMS00782,rabbit@vms00386]}]},
 {running_nodes,[rabbit@VMS00781,rabbit@vms00386,rabbit@VMS00782]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]

[op1@vms00386 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@vms00386 …
[{nodes,[{disc,[rabbit@VMS00781,rabbit@VMS00782,rabbit@vms00386]}]},
 {running_nodes,[rabbit@VMS00782,rabbit@VMS00781,rabbit@vms00386]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]

几点注意:
确定保障集群中至少有五个磁盘类型的节点避防数据丢失,在改动节点类型时进一步要留意。
若1切集群被停掉了,应保险最终一个down掉的节点被第二运维,若不能够则要运用forget_cluster_node命令将其移出集群
若集群中节点差不多同时以不可控的方式down了那儿在在那之中叁个节点使用force_boot命令重启节点

四.从集群移除节点
[op1@vms00386 ~]$ sudo rabbitmqctl stop_app
Stopping node rabbit@vms00386 …
[op1@vms00386 ~]$ sudo rabbitmqctl reset
Resetting node rabbit@vms00386 …
[op1@vms00386 ~]$ sudo rabbitmqctl start_app
Starting node rabbit@vms00386 …

[op1@vms00386 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@vms00386 …
[{nodes,[{disc,[rabbit@vms00386]}]},
 {running_nodes,[rabbit@vms00386]},
 {cluster_亚洲必赢官网,name,<<“rabbit@vms00386”>>},
 {partitions,[]}]

[op1@VMS00781 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@VMS00781 …
[{nodes,[{disc,[rabbit@VMS00781,rabbit@VMS00782]}]},
 {running_nodes,[rabbit@VMS00782,rabbit@VMS00781]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]

[op1@VMS00782 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@VMS00782 …
[{nodes,[{disc,[rabbit@VMS00781,rabbit@VMS00782]}]},
 {running_nodes,[rabbit@VMS00781,rabbit@VMS00782]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]
可知rabbit@vms00386改成了独自的节点,原集群只剩rabbit@VMS007八一,rabbit@VMS007八贰了

也可在有些节点移除集群中任何节点
如继续在rabbit@VMS007八一上移除rabbit@VMS007捌贰
[op1@VMS00781 ~]$ sudo rabbitmqctl forget_cluster_node
rabbit@VMS00782
Removing node rabbit@VMS00782 from cluster …

[op1@VMS00781 ~]$ sudo rabbitmqctl cluster_status
Cluster status of node rabbit@VMS00781 …
[{nodes,[{disc,[rabbit@VMS00781]}]},
 {running_nodes,[rabbit@VMS00781]},
 {cluster_name,<<“rabbit@VMS00781”>>},
 {partitions,[]}]

足见集群只剩rabbit@VMS007八一1个节点了

此处有个难点,在长途其余节点中被移除的节点会自认为仍属于集群

[op1@VMS00782 ~]$ sudo rabbitmqctl start_app
Starting node rabbit@VMS00782 …

2.2、修改 /etc/hosts

  参预集群 三 个节点的相应关系:

192.168.0.31 node1
192.168.0.32 node2
192.168.0.33 node3

四、配置
一、必要配备host,不然集群没用艺术创造,作者那边用的aws的ec二,用的暗中认可主机名,那里就不修改了
二、拷贝.erlang.cookie,RabbitMQ集群注重erlang集群才能做事,所以必要先营造erlang集群,.erlang.cookie文件在开发银行用户的家目录下,小编那里是用work用户运营的RabbitMQ,拷贝1台服务器的/home/work/.erlang.cookie到其余机器并安装权限
chown work:work  /home/work/.erlang.cookie
chmod 400 /home/work/.erlang.cookie

亚洲必赢官网 2

BOOT FAILED

Error description:
   {error,{inconsistent_cluster,”Node rabbit@VMS00782 thinks it’s
clustered with node rabbit@VMS00781, but rabbit@VMS00781 disagrees”}}
Log files (may contain more information):
   /var/log/rabbitmq/rabbit@VMS00782.log
   /var/log/rabbitmq/rabbit@VMS00782-sasl.log
Stack trace:
   [{rabbit_mnesia,check_cluster_consistency,0},
    {rabbit,’-start/0-fun-0-‘,0},
    {rabbit,start_it,1},
    {rpc,’-handle_call_call/6-fun-0-‘,5}]
Error: {rabbit,failure_during_boot,
           {error,
               {inconsistent_cluster,
                   “Node rabbit@VMS00782 thinks it’s clustered with node
rabbit@VMS00781, but rabbit@VMS00781 disagrees”}}}
亟待重置一下
[op1@VMS00782 ~]$ sudo rabbitmqctl reset
Resetting node rabbit@VMS00782 …
[op1@VMS00782 ~]$ sudo rabbitmqctl start_app
Starting node rabbit@VMS00782 …

那时几个节点均已变成独立的节点
在这之中rabbit@vms003捌陆、rabbit@VMS007八二均被重置为了新的RabbitMQ
broker而rabbit@VMS007八1还保留着原cluster的残存景况可经过如下步骤重置
[op1@VMS00781 ~]$ sudo rabbitmqctl stop_app
Stopping node rabbit@VMS00781 …
[op1@VMS00781 ~]$ sudo rabbitmqctl reset
Resetting node rabbit@VMS00781 …
[op1@VMS00781 ~]$ sudo rabbitmqctl start_app
Starting node rabbit@VMS00781 …

伍.自动配置cluster
驾驭,那是透过配备文件而非命令行工具举办的
首先重置各节点
[op1@VMS00781 ~]$ sudo rabbitmqctl stop_app
Stopping node rabbit@VMS00781 …
[op1@VMS00781 ~]$ sudo rabbitmqctl reset
Resetting node rabbit@VMS00781 …

附带调整安排文件
[{rabbit,
  [{cluster_nodes, {[‘rabbit@VMS00781’, ‘rabbit@VMS00782’,
‘rabbit@vms00386’], disc}}]}].

现在运维各节点
[op1@VMS00781 ~]$ sudo service rabbitmq-server start
Starting rabbitmq-server: SUCCESS
rabbitmq-server.

查看集群状态
[op1@VMS00781 ~]$ sudo rabbitmqctl cluster_status

几点注意:
不论通过命令行仍然经过铺排文件配置,请保管各节点上Erlang和RabbitMQ版本相同
布署文件仅对独特节点有效,也即被reset或然第一次运行的节点。因而在重启节点后自动化集群过程并不会时有产生。也觉得那通过rabbitmq进行的转移优先于自动化集群配置。

在1台机械上配备集群,壹般用户测试集群天性
那边的要害是已不可同日而语的端口可节点名称运营多个rabbitmq-server实例,其他进度同多机器上配备集群类似

别的注意事项:
如防火墙策略等

参考:

2.2、设置 Erlang Cookie

  RabbitMQ节点之间和下令行工具 (e.g.
rabbitmqctl)是选拔库克ie互通的,Cookie是1组随机的数字+字母的字符串。当RabbitMQ服务器运维的时候,Erlang
VM会自动创造贰个自由内容的Cookie文件。借使是通过源安装RabbitMQ的话,Erlang
Cookie
文件在/var/lib/rabbitmq/.erlang.cookie。假如是经过源码安装的RabbitMQ,Erlang
Cookie文件$HOME/.erlang.cookie。

  本文演示的实例是用源码安装,由于那些文件权限是 400,所以需求先修改
node二、node叁 中的该文件权限为 777:

lion@node1:~$ chmod 777 .erlang.cookie

  然后将文件复制到node贰、node3上边。

node2:

lion@node2:~$ chmod 777 .erlang.cookie
lion@node2:~$ scp -r node1:/home/lion/.erlang.cookie ~/
lion@node1's password:
.erlang.cookie                                                                                     100%   20     0.0KB/s   00:00

node3:

lion@node3:~$ chmod 777 .erlang.cookie
lion@node3:~$ scp -r node1:/home/lion/.erlang.cookie ~/
lion@node1's password:
.erlang.cookie                                                                                     100%   20     0.0KB/s   00:00

  分别在node1、node二、node三将权力复苏过来:

lion@node1:~$ chmod 400 .erlang.cookie

  最后分别在肯定③台机械上的.erlang.cookie的值是千篇一律的

lion@node1:~$ cat .erlang.cookie
VORMVSAAOFOFEQKTNWBA

lion@node2:~$ cat .erlang.cookie
VORMVSAAOFOFEQKTNWBA

lion@node3:~$ cat .erlang.cookie
VORMVSAAOFOFEQKTNWBA

三、设置集群的方式:镜像
rabbitmqctl set_policy ha-all “^” ‘{“ha-mode”:”all”}’

rabbitmqctl-ClusterNode壹.bat运作命令基本都会报与stop_app相同的荒唐。

二.三、使用detached参数,在后台运维Rabbit Node

  要先甘休现有的Rabbitmq-server,再重新在后台支行

lion@node1:~$ rabbitmqctl stop
Stopping and halting node rabbit@node1 ...
Gracefully halting Erlang VM
lion@node1:~$ rabbitmq-server -detached

  通过rabbitmqctl
cluster_status命令,能够查阅和个节点的事态,节点的名号是rabbit@shorthostname,

node1:

lion@node1:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node1 ...
[{nodes,[{disc,[rabbit@node1]}]},
 {running_nodes,[rabbit@node1]},
 {cluster_name,<<"rabbit@node1">>},
 {partitions,[]},
 {alarms,[{rabbit@node1,[]}]}]

node2:

lion@node2:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node2 ...
[{nodes,[{disc,[rabbit@node2]}]},
 {running_nodes,[rabbit@node2]},
 {cluster_name,<<"rabbit@node2">>},
 {partitions,[]},
 {alarms,[{rabbit@node2,[]}]}]

node3:

lion@node3:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node3 ...
[{nodes,[{disc,[rabbit@node3]}]},
 {running_nodes,[rabbit@node3]},
 {cluster_name,<<"rabbit@node3">>},
 {partitions,[]},
 {alarms,[{rabbit@node3,[]}]}]

PS:
在随心所欲3个节点操作即可,那里在ip-172-3一-一3-11四上操作
四、出席集群(ip-17二-3壹-一5-1二肆 、ip-17二-3一-11-21六 )
rabbitmqctl stop_app
rabbitmqctl join_cluster –ram rabbit@ip-172-31-13-114
rabbitmqctl start_app

 

二.4、将node1、node2、node三组成集群

  因为rabbitmq-server运维时,会联手运转节点和平运动用,它预先安装RabbitMQ应用为standalone形式。要将三个节点到场到现有的集群中,你要求截至那些应用并将节点设置为原本状态,然后就为进入集群准备好了。假如使用./rabbitmqctl
stop,应用和节点都将被关门。所以利用rabbitmqctl stop_app仅仅关闭应用。

node2:

lion@node2:~$ rabbitmqctl stop_app
Stopping node rabbit@node2 ...
lion@node2:~$ rabbitmqctl join_cluster rabbit@node1
Clustering node rabbit@node2 with rabbit@node1 ...
lion@node2:~$ rabbitmqctl start_app
Starting node rabbit@node2 ...

node3:

lion@node3:~$ rabbitmqctl stop_app
Stopping node rabbit@node3 ...
lion@node3:~$ rabbitmqctl join_cluster rabbit@node1
Clustering node rabbit@node3 with rabbit@node1 ...
lion@node3:~$ rabbitmqctl start_app
Starting node rabbit@node3 ...

  此时 node贰 与 node三 也会自行建立连接。

  假设要选取内部存款和储蓄器节点,则足以应用以下命令:

lion@node2:~$ rabbitmqctl join_cluster --ram rabbit@node1

  集群配置好后,能够在 RabbitMQ 任意节点上举办 rabbitmqctl
cluster_status 来查看是不是集群配置成功。

node1:

lion@node1:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node1 ...
[{nodes,[{disc,[rabbit@node1,rabbit@node2,rabbit@node3]}]},
 {running_nodes,[rabbit@node1]},
 {cluster_name,<<"rabbit@node1">>},
 {partitions,[]},
 {alarms,[{rabbit@node1,[]}]}]

node2:

lion@node2:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node2 ...
[{nodes,[{disc,[rabbit@node1,rabbit@node2]}]},{alarms,[{rabbit@node1,[]}]}]

node3:

lion@node3:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node3 ...
[{nodes,[{disc,[rabbit@node1,rabbit@node2,rabbit@node3]}]},
 {alarms,[{rabbit@node1,[]}]}]

  同时在Web管理工科具中也得以见见效果

PS:
–ram 内定内部存储器节点类型,–disc钦点磁盘节点类型

查网上erlang.cookie修改没用,因为三个erlang.cookie本来便是平等的。查阅了汪洋有关材料后,他们的解决方案基本都不行。

二.伍、RabbitMQ镜像成效

  使用Rabbit镜像功效,须求基于RabbitMQ策略来达成,策略是用来决定和修改群集范围的有些vhost队列行为和Exchange行为

lion@node2:~$ rabbitmqctl set_policy -p hrsystem ha-allqueue"^" '{"ha-mode":"all"}'

那行命令在vhost名为hrsystem创建了2个策略,策略名字为ha-allqueue,策略方式为
all 即复制到全体节点,包括新增节点,策略正则表明式为 “^”
表示全部相称全数队列名称。

  例如下边的通令,^message
那些规则要依照自身修改,那些是指同步”message”先导的队列名称,我们安排时选用的使用于具有队列,所以表明式为”^”。

lion@node2:~$ rabbitmqctl set_policy -p hrsystem ha-allqueue "^message" '{"ha-mode":"all"}'

  更多set_policy说明:

5、查看集群
rabbitmqctl cluster_status

 

2.陆、安装软件负载均衡器HAProxy一.6

  由于Ubuntu的飞跃进步,官方的源大概不是洋气的本子,超过44%时候安装可能是1.肆.二4,能够透过以下命令,查询官方提供的本子号:

lion@node4:~$ sudo apt-cache showpkg haproxy

node肆是壹台新的机器 ,IP地址是19贰.168.0.34

  在写本文的时候,官方包是未有一.陆版本的,大家能够透过以下命令来设置 :

lion@node4:~$ sudo add-apt-repository ppa:vbernat/haproxy-1.6
lion@node4:~$ sudo apt-get update
lion@node4:~$ sudo apt-get install haproxy

  安装完事后,能够经过以下命令,查看安装的版本

lion@node4:~$ haproxy -v
HA-Proxy version 1.6.7 2016/07/13
Copyright 2000-2016 Willy Tarreau <willy@haproxy.org>

  安装完以后,配置文件的目录在/etc/haproxy/haproxy.cfg,以下是本身修改后的配备文件

###########全局配置#########
global
    log /dev/log    local0
    log /dev/log    local1 notice
    chroot /var/lib/haproxy     # 改变当前工作目录
    stats socket /run/haproxy/admin.sock mode 660 level admin   # 创建监控所用的套接字目录
    pidfile  /var/run/haproxy.pid   # haproxy的pid存放路径,启动进程的用户必须有权限访问此文件 
    maxconn  4000                   # 最大连接数,默认4000
    user   haproxy                  # 默认用户
    group   haproxy                 # 默认用户组
    daemon                          # 创建1个进程进入deamon模式运行。此参数要求将运行模式设置为"daemon

    # Default SSL material locations
    ca-base /etc/ssl/certs
    crt-base /etc/ssl/private

    # Default ciphers to use on SSL-enabled listening sockets.
    # For more information, see ciphers(1SSL). This list is from:
    #  https://hynek.me/articles/hardening-your-web-servers-ssl-ciphers/
    ssl-default-bind-ciphers ECDH+AESGCM:DH+AESGCM:ECDH+AES256:DH+AES256:ECDH+AES128:DH+AES:ECDH+3DES:DH+3DES:RSA+AESGCM:RSA+AES:RSA+3DES:!aNULL:!MD5:!DSS
    ssl-default-bind-options no-sslv3

###########默认配置#########
defaults
    log global
    mode    http                                # 默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OK
    option  httplog                             # 采用http日志格式
    option  dontlognull                         # 启用该项,日志中将不会记录空连接。所谓空连接就是在上游的负载均衡器
                                                # 或者监控系统为了探测该 服务是否存活可用时,需要定期的连接或者获取某
                                                # 一固定的组件或页面,或者探测扫描端口是否在监听或开放等动作被称为空连接;
                                                # 官方文档中标注,如果该服务上游没有其他的负载均衡器的话,建议不要使用
                                                # 该参数,因为互联网上的恶意扫描或其他动作就不会被记录下来
    timeout connect 5000                    # 连接超时时间
    timeout client  50000                   # 客户端连接超时时间
    timeout server  50000                   # 服务器端连接超时时间
    option  httpclose       # 每次请求完毕后主动关闭http通道 
    option  httplog         # 日志类别http日志格式 
    #option  forwardfor      # 如果后端服务器需要获得客户端真实ip需要配置的参数,可以从Http Header中获得客户端ip  
    option  redispatch      # serverId对应的服务器挂掉后,强制定向到其他健康的服务器
    timeout connect 10000   # default 10 second timeout if a backend is not found
    maxconn     60000       # 最大连接数
    retries     3           # 3次连接失败就认为服务不可用,也可以通过后面设置 
    errorfile 400 /etc/haproxy/errors/400.http
    errorfile 403 /etc/haproxy/errors/403.http
    errorfile 408 /etc/haproxy/errors/408.http
    errorfile 500 /etc/haproxy/errors/500.http
    errorfile 502 /etc/haproxy/errors/502.http
    errorfile 503 /etc/haproxy/errors/503.http
    errorfile 504 /etc/haproxy/errors/504.http
####################################################################
listen http_front
        bind 0.0.0.0:1080           #监听端口  
        stats refresh 30s           #统计页面自动刷新时间  
        stats uri /haproxy?stats            #统计页面url  
        stats realm Haproxy Manager #统计页面密码框上提示文本  
        stats auth admin:admin      #统计页面用户名和密码设置  
        #stats hide-version         #隐藏统计页面上HAProxy的版本信息

#####################我把RabbitMQ的管理界面也放在HAProxy后面了###############################
listen rabbitmq_admin 
    bind 0.0.0.0:8004
    server node1 192.168.0.31:15672
    server node2 192.168.0.32:15672
    server node3 192.168.0.33:15672
####################################################################
listen rabbitmq_cluster 
    bind 0.0.0.0:5672
    option tcplog
    mode tcp
    timeout client  3h
    timeout server  3h
    option          clitcpka
    balance roundrobin      #负载均衡算法(#banlance roundrobin 轮询,balance source 保存session值,支持static-rr,leastconn,first,uri等参数)
    #balance url_param userid
    #balance url_param session_id check_post 64
    #balance hdr(User-Agent)
    #balance hdr(host)
    #balance hdr(Host) use_domain_only
    #balance rdp-cookie
    #balance leastconn
    #balance source //ip
    server   node1 192.168.0.31:5672 check inter 5s rise 2 fall 3   #check inter 2000 是检测心跳频率,rise 2是2次正确认为服务器可用,fall 3是3次失败认为服务器不可用
    server   node2 192.168.0.32:5672 check inter 5s rise 2 fall 3
    server   node3 192.168.0.33:5672 check inter 5s rise 2 fall 3

  越多Haproxy的计划文件介绍参考:

  重新启航HAProxy

lion@node4:~$ sudo service haproxy restart
 * Restarting haproxy haproxy                                                                                                 [ OK ]

  然后用浏览器输入

  

6、启用管理和督察模块
rabbitmq-plugins enable rabbitmq_management

频仍检讨后作者恍然意识HTTP端操作符合规律,正是不能够用rabbitmqctl-ClusterNode一.bat举行操作。

二.七、测试结果 ,向HAProxy发送消息

  使用Ubuntu1四.0四+RabbitMQ三.6.三+Golang的极品实践中的代码来发送音信,
在node3上大家将信息发送到node四(1九贰.16八.0.3四)上

原本私下认可的guest用户是不准长途访问的,假设要选用lion帐号访问,须求在web管控塞内加尔达喀尔打开lion对Virtual
Host访问

Console1(node3):

lion@node3:~/_code/_rabbitmq/_golang$ go run producer_hello.go
2016/07/29 12:46:50 dialing "amqp://lion:123456@192.168.0.34:5672/"
2016/07/29 12:46:50 got Connection, getting Channel
2016/07/29 12:46:50 got queue, declaring "test-idoall-queues"
2016/07/29 12:46:50 declared queue, publishing 16B body ("hello idoall.org")
2016/07/29 12:46:50 published 16B OK

Console(node1):

lion@node1:~/_code/_rabbitmq/_golang$ go run consumer_hello.go
2016/07/25 17:37:12 dialing "amqp://guest:guest@localhost:5672/"
2016/07/25 17:37:12 got Connection, getting Channel
2016/07/25 17:37:12 got queue, declaring "test-idoall-queues"
2016/07/25 17:37:12 Queue bound to Exchange, starting Consume
2016/07/25 17:37:12  [*] Waiting for messages. To exit press CTRL+C
2016/07/25 17:37:12 Received a message: hello idoall.org

  在上头的代码中,我们能够看出在node三是向1玖2.168.0.3四那台HAProxy上发送新闻,然后在node1上能够寻常接收。

7、设置集群的名字
rabbitmqctl set_cluster_name my_mq

 

三、参考阅读

Haproxy
配置项\计划实例

How to Install HAProxy Load Balancer on
Ubuntu

Can’t access RabbitMQ web management interface after fresh
install

Nginx/LVS/HAProxy负载均衡软件的得失详解


博文笔者:迦1
博客地址:RabbitMQ三.6.三集群搭建+HAProxy壹.陆做负载均衡
转发表明:能够转发,
但必须以超链接方式注解小说原来出处和小编消息及版权证明,多谢合作!


捌、添加用户:
rabbitmqctl add_user spider spider

接下来,小编在HTTP端用Export
definitions导出RabbitMQ的骨干音讯,发现内部有一条”global_parameters”:[{“name”:”cluster_name”,”value”:”rabbit1@PC-20180525AWWA”}]信息。

九、设置用户权限策略
rabbitmqctl set_user_tags spider administrator

因而自身就寻思是或不是理所应当不要ClusterNode一,而是一直动用暗中认可的本机名。

10、vhost授权
rabbitmqctl set_permissions -p / spider ‘.*’ ‘.*’ ‘.*’

 

11、改变节点类型为磁盘节点
rabbitmqctl stop_app
rabbitmqctl change_cluster_node_type disc
rabbitmqctl start_app

正巧小编看见
localhost。

1②、将节点移出集群
将节点ip-17贰-31-1一-21陆 移出集群前,先要stop_app,然后reset节点
[root@ip-172-31-11-216 ~]# rabbitmqctl stop_app
Stopping node rabbit@ip-172-31-11-216 …
[root@ip-172-31-11-216 ~]# rabbitmqctl reset
Resetting node rabbit@ip-172-31-11-216 …

 

CentOS7下安装RabbitMQ 
http://www.linuxidc.com/Linux/2016-11/136812.htm

故此自身就将hosts中的1二柒.0.0.一 ClusterNode1诠释。

高可用RabbitMQ集群安装配置
http://www.linuxidc.com/Linux/2016-10/136492.htm

亚洲必赢官网 3

CentOS 七.2 下 RabbitMQ 集群搭建 
http://www.linuxidc.com/Linux/2016-12/137812.htm

同时,在rabbitmq-env-ClusterNode1.bat中对RABBITMQ_NODENAME进行改动,具体如下。

RabbitMQ 学习初入门 
http://www.linuxidc.com/Linux/2016-11/136813.htm

亚洲必赢官网 4

CentOS7条件设置使用正式的音讯队列产品RabbitMQ
http://www.linuxidc.com/Linux/2016-11/13673.htm

若出现ERROR: node with name “rabbit1” already running on “loaclhost”,则

安顿与管理RabbitMQ 
http://www.linuxidc.com/Linux/2016-11/136815.htm

在职务管理器中把erl.exe进程全体收尾,并在治本中重启RabbitMQ服务。然后遵照以下步骤执行:

RabbitMQ概念及环境搭建 http://www.linuxidc.com/Linux/2014-12/110449.htm

1、运转节点

RabbitMQ入门教程 
http://www.linuxidc.com/Linux/2015-02/113983.htm

rabbitmq-server-ClusterNode1 -detached

RabbitMQ
的事无巨细介绍
:请点那里
RabbitMQ
的下载地址
:请点那里 

二、形成集群

本文永久更新链接地址:http://www.linuxidc.com/Linux/2017-05/143687.htm

rabbitmqctl-ClusterNode1 stop_app

亚洲必赢官网 5

rabbitmqctl-ClusterNode1 join_cluster rabbit

rabbitmqctl-ClusterNode1 start_app

亚洲必赢官网 6

三、查看集群状态

rabbitmqctl cluster_status

亚洲必赢官网 7

4、通过督查页面,查看节点音讯

亚洲必赢官网 8

网站地图xml地图