Redis之集群搭建
1、redis-cluster集群模式简介
关于redis的集群化方案 目前主要有以下三种:
- Twitter开发的twemproxy
- 豌豆荚开发的codis
redis官方的redis-cluster
Twemproxy
和Codis
都属于代理分区:
客户端 发送请求到一个 代理组件,代理 解析 客户端 的数据,并将请求转发至正确的节点,最后将结果回复给客户端。
- 优点:简化 客户端 的分布式逻辑,客户端 透明接入,切换成本低,代理的 转发 和 存储 分离。
- 缺点:多了一层 代理层,加重了 架构部署复杂度 和 性能损耗。
本篇博客,介绍的是redis官方的redis-cluster,redis-cluster是一种服务器分片技术,3.0版本开始正式提供。
Redis Cluster是去中心化的,这点与Codis有着本质的不同,Redis Cluster划分了16384个slots,每个节点负责其中的一部分数据。slot的信息存储在每个节点中,节点会将slot信息持久化到配置文件中,因此需要保证配置文件是可写的。当客户端连接时,会获得一份slot的信息。这样当客户端需要访问某个key时,就可以直接根据缓存在本地的slot信息来定位节点。这样就会存在客户端缓存的slot信息和服务器的slot信息不一致的问题,这个问题具体怎么解决呢?这里先卖个关子,后面会做解释。
性能
Redis Cluster不提供代理,而是让client直接重定向到正确的节点。
client中会保存一份集群状态的副本,一般情况下就会直接连接到正确的节点。
由于Redis Cluster是异步备份的,所以节点不需要等待其他节点确认写成功就可以直接返回,除非显式的使用了WAIT命令。
对于操作多个key的命令,所操作的key必须是在同一节点上的,因为数据是不会移动的。(除非是resharding)
Redis Cluster设计的主要目标是提高性能和扩展性,只提供弱的数据安全性和可用性(但是要合理)。
2、部署测试
Redis集群中要求奇数节点(master的投票机制),所以至少要有三个节点,并且每个节点至少有一备份节点,所以至少需要6个redis服务实例(主节点、备份节点由redis-cluster集群确定)
① 环境准备
准备三台机器(192.168.37.133、192.168.37.134、192.168.37.135),每台部署两个Redis实例(实际生产环境,也可以只用两台主机,每台主机部署三个Redis实例)
- 192.168.37.133部署7001,7002端口的实例,分别放置在7001,7002目录下
- 192.168.37.134部署7003,7004端口的实例,分别放置在7003,7004目录下
- 192.168.37.135部署7005,7006端口的实例,分别放置在7005,7006目录下
②修改配置文件
修改每个实例的redis.conf配置文件
port 6379
cluster-enabled yes
#后面src目录下可以看到nodes-6379.conf文件
cluster-config-file nodes-6379.conf
appendonly yes
bind 0.0.0.0(允许所有ip客户端的访问)
daemonize yes
pidfile /opt/redis-4.0.11/7001/redis_7001.pid
③安装ruby
yum -y install ruby ruby-devel rubygems rpm-build
gem install redis
④启动实例
与单点的redis的启动方式一样,分别启动六个redis的实例
./redis-server ../redis.conf &
⑤开放端口
redis客户端连接端口
192.168.37.133的7001,7002;192.168.37.134的7003,7004;192.168.37.135的7005,7006端口
集群中实例相互通信(心跳包)的内部总线端口(redis客户端连接端口 + 10000)
192.168.37.133的17001,17002;192.168.37.134的17003,17004;192.168.37.135的17005,17006端口
⑥集群配置
在任意一个redis的src目录执行
./redis-cli --cluster create 192.168.37.133:7001 192.168.37.133:7002 192.168.37.134:7003 192.168.37.134:7004 192.168.37.135:7005 192.168.37.135:7006 --cluster-replicas 1
replicas``1 表示我们希望为集群中的每个主节点创建一个从节点
结果如下
>>> Creating cluster
>>> Performing hash slots allocation on 6 nodes...
Using 3 masters:
192.168.37.133:7001
192.168.37.134:7003
192.168.37.135:7005
Adding replica 192.168.37.134:7004 to 192.168.37.133:7001
Adding replica 192.168.37.135:7006 to 192.168.37.134:7003
Adding replica 192.168.37.133:7002 to 192.168.37.135:7005
M: febe3f02bfb4800b5f9f0d0b57d675dc0fb882a0 192.168.37.133:7001
slots:0-5460 (5461 slots) master
S: 540f891d97dc0b0c4868488dfe1bc7de2813747a 192.168.37.133:7002
replicates 0e022381183dbe47e4ee32e6a10abb19066c82ff
M: 0eae91b1a0b4db3496d15d928f6a32eca50f7cdd 192.168.37.134:7003
slots:5461-10922 (5462 slots) master
S: 8e9f9cf9980ed5c0b59c1b7c3801645e3a13ff5a 192.168.37.134:7004
replicates febe3f02bfb4800b5f9f0d0b57d675dc0fb882a0
M: 0e022381183dbe47e4ee32e6a10abb19066c82ff 192.168.37.135:7005
slots:10923-16383 (5461 slots) master
S: 541d946fb7c1143b4365bec3c668dc76611ca901 192.168.37.135:7006
replicates 0eae91b1a0b4db3496d15d928f6a32eca50f7cdd
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join...
>>> Performing Cluster Check (using node 192.168.37.133:7001)
M: febe3f02bfb4800b5f9f0d0b57d675dc0fb882a0 192.168.37.133:7001
slots:0-5460 (5461 slots) master
1 additional replica(s)
M: 0eae91b1a0b4db3496d15d928f6a32eca50f7cdd 192.168.37.134:7003
slots:5461-10922 (5462 slots) master
1 additional replica(s)
M: 0e022381183dbe47e4ee32e6a10abb19066c82ff 192.168.37.135:7005
slots:10923-16383 (5461 slots) master
1 additional replica(s)
S: 8e9f9cf9980ed5c0b59c1b7c3801645e3a13ff5a 192.168.37.134:7004
slots: (0 slots) slave
replicates febe3f02bfb4800b5f9f0d0b57d675dc0fb882a0
S: 541d946fb7c1143b4365bec3c668dc76611ca901 192.168.37.135:7006
slots: (0 slots) slave
replicates 0eae91b1a0b4db3496d15d928f6a32eca50f7cdd
S: 540f891d97dc0b0c4868488dfe1bc7de2813747a 192.168.37.133:7002
slots: (0 slots) slave
replicates 0e022381183dbe47e4ee32e6a10abb19066c82ff
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
⑦验证
登录任意一台redis的客户端
./redis-cli -h 127.0.0.1 -p 7001
查看集群状态,执行
cluster info
显示
cluster_state:ok
cluster_slots_assigned:16384
cluster_slots_ok:16384
cluster_slots_pfail:0
cluster_slots_fail:0
cluster_known_nodes:6
cluster_size:3
cluster_current_epoch:6
cluster_my_epoch:1
cluster_stats_messages_ping_sent:202
cluster_stats_messages_pong_sent:218
cluster_stats_messages_sent:420
cluster_stats_messages_ping_received:213
cluster_stats_messages_pong_received:202
cluster_stats_messages_meet_received:5
cluster_stats_messages_received:420
查看集群节点信息,执行
cluster nodes
显示
0eae91b1a0b4db3496d15d928f6a32eca50f7cdd 192.168.37.134:7003@17003 master - 0 1538728029000 3 connected 5461-10922
0e022381183dbe47e4ee32e6a10abb19066c82ff 192.168.37.135:7005@17005 master - 0 1538728028666 5 connected 10923-16383
8e9f9cf9980ed5c0b59c1b7c3801645e3a13ff5a 192.168.37.134:7004@17004 slave febe3f02bfb4800b5f9f0d0b57d675dc0fb882a0 0 1538728031692 4 connected
541d946fb7c1143b4365bec3c668dc76611ca901 192.168.37.135:7006@17006 slave 0eae91b1a0b4db3496d15d928f6a32eca50f7cdd 0 1538728030685 6 connected
540f891d97dc0b0c4868488dfe1bc7de2813747a 192.168.37.133:7002@17002 slave 0e022381183dbe47e4ee32e6a10abb19066c82ff 0 1538728030000 5 connected
febe3f02bfb4800b5f9f0d0b57d675dc0fb882a0 192.168.37.133:7001@17001 myself,master - 0 1538728030000 1 connected 0-5460
可以看到
7001是master,7004是其slave
7003是master,7006是其slave
7005是master,7002是其slave
我们再用Redis desktop manager 进行连接测试
可以看到,Icon跟单点部署的Redis的Icon不一样,是集群的Icon
至此,Redis集群搭建成功
还没有评论,来说两句吧...