容器搭建redis集群
- 安装redis集群
-
- 三主三从redis集群搭建
- 主从容错切换迁移
-
- 数据读写存储
- 容错切换迁移
- 主从扩容
- 主从缩容
安装redis集群
三主三从redis集群搭建
cluster集群模式
哈希槽分区进行亿级数据存储
关闭防火墙,启动docker
systemctl start docker
新建6个redis容器实例
docker run -d --name 容器名 --net host --privileged=true -v 宿主机挂载地址:容器挂载地址 镜像名 --cluster-enabled yes --appendonly yes --port 端口
--net host 使用宿主机的ip和端口
--privileged=true 开启宿主机root权限
--cluster-enabled yes 开启集群
--appendonly yes 打开持久化配置
docker run -d --name redis-node-1 --net host --privileged=true -v /data/redis/share/redis-node-1:/data redis:6.0.8 --cluster-enabled yes --appendonl服务器托管网y yes --port 7001
docker run -d --name redis-node-2 --net host --privileged=true -v /data/redis/share/redis-node-2:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 7002
docker run -d --name redis-node-3 --net host --privileged=true -v /data/redis/share/redis-node-3:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 7003
docker run -d --name redis-node-4 --net host --privileged=true -v /data/redis/share/redis-node-4:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 7004
docker run -d --name redis-node-5 --net host --privileged=true -v /data/redis/share/redis-node-5:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 7005
docker run -d --name redis-node-6 --net host --privileged=true -v /data/redis/share/redis-node-6:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 7006
docker ps //查看正在运行的容器
进入容器为六台机器构建集群关系
docker exec -it redis-node-1 /bin/bash //进入一号机构建主从关系
构建主从关系
进入docker容器后才能执行一下命令,且注意自己的真实IP地址,ip是指宿主机ip,端口是启动redis镜像的端口
redis-cli --cluster create ip:端口 ip:端口 ip:服务器托管网端口 ip:端口 ip:端口 ip:端口 --cluster-replicas 1
--cluster-replicas 1:表示为每个master创建一个slave节点
链接进入6831作为切入点,查看集群状态
链接进入6831作为切入点,查看节点状态
cluster info //查看集群信息
cluster nodes //本集群有哪些节点,以及各自的状态
主从容错切换迁移
数据读写存储
启动6台机子构成的服务器集群并通过exec进入
docker exec -it 主服务器1 /bin/bash
redis-cli -p 主服务器1 //单机方式连接
redis-cli -p 主服务器1 -c //集群方式连接
进入后set k1 v1 //添加数据
查看集群信息:
redis-cli --cluster check ip:服务器集群任一端口
--cluster check:查看集群信息参数
容错切换迁移
redis集群主从切换
主6381和从机切换,先停止主机6381
再次查看集群信息
6381本来是6382的主服务器,但是6381宕机了,6382上位
docker exec -it 从一的主机名 /bin/bash
redis-cli-p 6382 -c
cluster nodes
6382 master
6381 file
6381恢复后,6382还是master,6381成了slave端
先还原之前的3主3从
停掉6382,将master还给6381,在启用6382,6382为slave端
查看集群状态
redis-cli --cluster check 自己ip:6381
主从状态和之前一致
主从扩容
三主三从扩容成四主四从
新建两个节点+新建后启动+查看节点
docker run -d --name redis-node-7 --net host --privileged=true -v /data/redis/share/redis-node-7:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 7007
docker run -d --name redis-node-8 --net host --privileged=true -v /data/redis/share/redis-node-8:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 7008
查看运行中的容器docker ps
进入6387容器实例内部
docker exec -it redis-node-7 /bin/bash
将新增的6387节点(空槽号)作为master节点加入原集群
redis-cli --cluster add-node 自己实际IP地址:6387 自己实际IP地址:6381
6387 就是将要作为master新增节点
6381 就是原来集群节点
检查集群情况第1次
redis-cli --cluster check 真实ip地址:6381
重新分派槽号
redis-cli --cluster reshard IP地址:端口号
redis-cli --cluster reshard 192.168.111.147:6381
分配多少个槽点
新添加的主节点id
all 全部分配
检查集群情况第2次
redis-cli --cluster check 真实ip地址:6381
槽号分派说明
重新分配成本太高,所以从之前的槽点各自匀出来一部分,从旧节点分别匀出坑位给新节点
为新添加的主节点分配从节点
redis-cli --cluster add-node ip:新slave端口 ip:新master端口 --cluster-slave --cluster-master-id 新添加主节点ID
redis-cli --cluster add-node 192.168.111.147:6388 192.168.111.147:6387 --cluster-slave --cluster-master-id e4781f644d4a4e4d4b4d107157b9ba8144631451
检查集群情况第3次
redis-cli --cluster check 真实ip地址:6381
主从缩容
四主四从变为三主三从
检查集群情况获得从节点ID
redis-cli --cluster check ip:端口
将从节点删除
redis-cli --cluster del-node ip:从机端口 从节点ID
redis-cli --cluster del-node 192.168.111.147:6388 5d149074b7e57b802287d1797a874ed7a1a284a8
集群情况检查
redis-cli --cluster check ip:端口
将主节点的槽号清空,重新分配
下述操作是将清出来的槽号都给第一个主节点
redis-cli --cluster reshard ip:端口
分配多少个槽点
接收槽位的节点id
被收回槽位的节点id
done
检查集群情况第二次
redis-cli --cluster check ip:端口
将主节点删除
redis-cli --cluster del-node ip:端口 主节点ID
redis-cli --cluster del-node 192.168.111.147:6387 e4781f644d4a4e4d4b4d107157b9ba8144631451
检查集群情况第三次
redis-cli --cluster check ip:端口
服务器托管,北京服务器托管,服务器租用 http://www.fwqtg.net
服务器托管网 解压 linxiang@192 ~ % cd /Users/linxiang/Work linxiang@192 Work % ls -all total 379032 drwxr-xr-x 7 linxiang staff 224 2 15 1…