redis 概念初识及基本使用

redis,概念,初识,基本,使用 · 浏览次数 : 53

小编点评

**故障修复** 1. **修复6379数据库**: - 创建配置文件 `s25-redis-7000.conf` 和 `s25-redis-7001.conf`。 - 配置端口、地址、用户名和密码。 - 运行 `redis-trib create` 命令创建 10 个 worker 和 5 个 sitter。 2. **准备ruby环境** - 安装 Ruby 和 Gem。 - 下载并安装 `redis-3.3.0.gem`。 - 使用 `gem install` 安装 `redis-3.3.0.gem`。 **集群创建** 1. 创建 `redis-trib.rb` 文件: ```ruby # 创建 Redis 集群 redis_trib = Redistrib.new( :cluster_name => "my_cluster", :replicas => 6 ) # 添加节点到集群 redis_trib.add_node("127.0.0.1:7000") redis_trib.add_node("127.0.0.1:7001") # ... 添加 5 个节点 ... # 启动集群 redis_trib.start ``` 2. 使用 `redis-trib create` 命令创建一个集群,并指定数量的 worker 和 sitter。 **写入数据** 1. 在 `redis_trib.rb` 中添加以下代码以写入数据: ```ruby # 写入数据 redis_trib.write("my_key", "my_value") ``` 3. 在客户端程序中使用 `redis-cli` 或 `redis` gem 发送写入数据请求。 **结果** 在客户端程序中写入数据后,可以检查数据是否已成功写入。

正文

博客地址:https://www.cnblogs.com/zylyehuo/

五大数据类型

参考链接:redis学习

  • string,字符串类型
  • hash,哈希类型,如同python的dict
  • set,无序集合
  • zset,有序集合
  • list,双向队列,向左插入数据,向右插入数据,向左、右,提取数据

redis安全启动与配置文件,运维相关操作

redis如何在linux安装

  • rpm包安装
  • yum自动化安装,在阿里的yum仓库中,有redis的软件包
  • 源代码编译安装

redis是内存性数据库,断电,数据丢失,进程重启,数据丢失

得配置redis的数据持久化,防止数据丢失

redis支持ms复制,读写分离,防止单点故障,数据丢失

1.安装redis

[root@localhost ~]# cd /opt/
[root@localhost opt]# yum install redis -y 

2.修改redis.conf,更改默认端口,设置密码,开启安全模式等操作

用yum安装的redis,默认配置文件在/etc/redis.conf

[root@localhost opt]# vim /etc/redis.conf  # 打开如下参数即可

注释版

# 这里是绑定redis的启动地址,如果你支持远程连接,就改为0.0.0.0
bind 0.0.0.0  
# 更改端口
port 6500
# 设置redis的密码
requirepass haohaio
# 默认打开了安全模式
protected-mode yes  
# 打开一个redis后台运行的参数
daemonize yes 

无注释版

bind 0.0.0.0  
port 6500
requirepass haohaio
protected-mode yes  
daemonize yes 

3.启动redis

[root@localhost opt]# ps -ef | grep redis
root      27057   3041  0 00:04 pts/1    00:00:00 grep --color=auto redis
[root@localhost opt]# systemctl start redis
[root@localhost opt]# ps -ef | grep redis
root      27131   3041  0 00:04 pts/1    00:00:00 grep --color=auto redis
# 为什么systemctl start redis无法连接呢?
# 是因为这个命令默认连接的是6379端口,我们更改了redis端口,因此无法连接了
# 使用如下的命令,指定配置文件启动
[root@localhost opt]# redis-server /etc/redis.conf

# 检查redis的进程
[root@localhost opt]# ps -ef | grep redis
root      27178      1  0 00:05 ?        00:00:00 redis-server 0.0.0.0:6500
root      27184   3041  0 00:05 pts/1    00:00:00 grep --color=auto redis

4.连接redis服务端,指定ip地址和端口,以及密码连接redis

-p 指定端口
-h 指定ip地址
auth指令,用于密码验证
[root@localhost opt]# redis-cli -p 6500 -h 10.0.0.129
10.0.0.129:6500> ping
(error) NOAUTH Authentication required.
10.0.0.129:6500>
10.0.0.129:6500> auth haohaio
OK
10.0.0.129:6500> ping
PONG

5.redis常用命令

10.0.0.129:6500> flushdb  # 清空redis库
OK
10.0.0.129:6500> keys *  # 列出redis所有的key
(empty list or set)

redis数据持久化之RDB机制

向redis中写入一些数据,重启进程,查看数据是否会丢失

1.环境准备,准备一个redis.conf配置文件,不开启数据数据持久化

# 先杀死所有的redis进程,再重新写一个配置文件
[root@localhost opt]# pkill -9 redis
[root@localhost opt]# mkdir /s25redis
[root@localhost opt]# cd /s25redis/
[root@localhost s25redis]# vim no_rdb_redis.conf

bind 0.0.0.0
daemonize yes

2.指定该文件启动

[root@localhost s25redis]# redis-server no_rdb_redis.conf
[root@localhost s25redis]# ps -ef | grep redis
root     111958      1  0 23:06 ?        00:00:00 redis-server 0.0.0.0:6379
root     111964   3041  0 23:06 pts/1    00:00:00 grep --color=auto redis

3.登录数据库,写入数据,然后杀死redis进程,查看数据是否存在

以下的操作,都是为了演示,redis如果不配置持久化,数据会丢失

[root@localhost s25redis]# redis-cli 
127.0.0.1:6379> ping
PONG
127.0.0.1:6379> set name wohaoe
OK
127.0.0.1:6379> set name2 nimenebue
OK
127.0.0.1:6379> keys *
1) "name2"
2) "name"
127.0.0.1:6379> exit
[root@localhost s25redis]# pkill -9 redis
[root@localhost s25redis]# redis-server no_rdb_redis.conf 
[root@localhost s25redis]# redis-cli 
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> 

4.配置RDB机制的数据持久化,数据文件是一个看不懂的二进制文件,且配置触发的时间机制

[root@localhost s25redis]# cd /s25redis
[root@localhost s25redis]# vim s25_rdb_redis.conf

注释版

daemonize yes		          # 后台运行
port 6379				      # 端口 
logfile /data/6379/redis.log  # 指定redis的运行日志,存储位置
dir /data/6379		          # 指定redis的数据文件,存放路径 
dbfilename  s25_dump.rdb	  # 指定数据持久化的文件名字 
bind 127.0.0.1		          # 指定redis的运行ip地址
# redis触发save指令,用于数据持久化的时间机制  
# 900秒之内有1个修改的命令操作,如set .mset,del
save 900 1		
# 在300秒内有10个修改类的操作
save 300 10
# 60秒内有10000个修改类的操作
save 60  10000

无注释版

daemonize yes
port 6379 
logfile /data/6379/redis.log
dir /data/6379
dbfilename  s25_dump.rdb
bind 127.0.0.1
save 900 1		
save 300 10
save 60  10000
# 写入了一个key
set  name  很快就下课让大家去吃饭 
# 快速的执行了10次的修改类的操作
set name hehe
set name1 haha
...

# 新浪微博,1秒中内,写入了20w个新的key,因此也就是每分钟,进行一次数据持久化了
# 2.创建redis的数据文件夹,
[root@localhost s25redis]# mkdir -p /data/6379

# 3.杀死之前所有的redis,防止扰乱实验
[root@localhost s25redis]# pkill -9 redis

# 4.指定配置了rdb的redis配置文件,启动
[root@localhost s25redis]# redis-server s25_rdb_redis.conf
[root@localhost s25redis]# ps -ef | grep redis
root     113393      1  0 23:29 ?        00:00:00 redis-server 127.0.0.1:6379
root     113406   3041  0 23:29 pts/1    00:00:00 grep --color=auto redis

# 5.如果没有触发redis的持久化时间机制,数据文件是不会生成的,数据重启进程也会丢

# 6.可以通过编写脚本,让redis手动执行save命令,触发持久化,在redis命令行中,直接输入save即可触发持久化
127.0.0.1:6379> set name chaochao
OK
127.0.0.1:6379> set addr shahe
OK
127.0.0.1:6379> set age 18
OK
127.0.0.1:6379> keys *
1) "age"
2) "addr"
3) "name"
127.0.0.1:6379> save
OK
127.0.0.1:6379> exit
[root@localhost s25redis]# pkill -9 redis
[root@localhost s25redis]# redis-server s25_rdb_redis.conf
[root@localhost s25redis]# redis-cli 
127.0.0.1:6379> keys *
1) "addr"
2) "age"
3) "name"
127.0.0.1:6379> 

# 7.存在了rdb持久化的文件之后,重启redis进程,数据也不会丢了,redis在重启之后,会读取s25_dump.rdb文件中的数据
[root@localhost ~]# cd /data/6379/
[root@localhost 6379]# ls
redis.log  s25_dump.rdb

# 8.rdb的弊端在于什么,如果没有触发持久化机制,就发生了机器宕机,数据就会丢失了,因此redis有一个更好的AOF持久化机制

redis数据持久化之AOF机制

把修改类的redis命令操作,记录下来,追加写入到AOF文件中,且是我们能够看得懂的日志文件

1.准备一个新的配置文件,里面定义AOF的功能性参数即可使用

[root@localhost ~]# cd /s25redis/
[root@localhost s25redis]# pkill -9 redis
[root@localhost s25redis]# vim s25_aof_redis.conf 

注释版

# 写入如下内容
daemonize yes
port 6379
logfile /data/6379aof/redis.log
dir /data/6379aof/
appendonly yes	        # 开启aof功能
appendfsync everysec	# 每秒钟持久化一次

无注释版

daemonize yes
port 6379
logfile /data/6379aof/redis.log
dir /data/6379aof/
appendonly yes
appendfsync everysec

2.创建AOF的数据文件夹

[root@localhost s25redis]# mkdir -p /data/6379aof/

3.启动AOF的redis的数据库

[root@localhost s25redis]# redis-server s25_aof_redis.conf
[root@localhost s25redis]# ps -ef | grep redis
root     114730      1  0 23:49 ?        00:00:00 redis-server *:6379
root     114750   3041  0 23:49 pts/1    00:00:00 grep --color=auto redis

4.AOF机制的数据库,在首次启动的时候,就会生成AOF数据文件了,如下

[root@localhost ~]# cd /data/
[root@localhost data]# ls
6379  6379aof
[root@localhost data]# cd 6379aof/
[root@localhost 6379aof]# ls
appendonly.aof  redis.log

5.登录redis,写入数据

[root@localhost s25redis]# redis-cli
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> set name zhunbeixiakechifan
OK
127.0.0.1:6379> set name2 xinkudajiale
OK
127.0.0.1:6379> keys *
1) "name2"
2) "name"
127.0.0.1:6379> 

6.写入的操作,会被记录到AOF文件日志中

7.杀死所有的redis进程,且重启

127.0.0.1:6379> exit
[root@localhost s25redis]# pkill -9 redis
[root@localhost s25redis]# redis-server s25_aof_redis.conf
[root@localhost s25redis]# redis-cli 
127.0.0.1:6379> keys *
1) "name"
2) "name2"
127.0.0.1:6379> 

8.redis的AOF持久化机制,是在重启的时候,redis重新执行一遍AOF文件中的命令,实现数据复现

9.如果该AOF日志文件被删除,数据也就无法恢复了

redis数据同步复制

在一台机器上运行2个及以上的redis,是redis支持多实例的功能,基于端口号的不同,就能够运行多个相互独立的redis数据库

什么是多实例
就是机器上运行了多个redis相互独立的进程
互不干扰的独立的数据库
叫做多个redis数据库的实例,基于配置文件区分即可

如图是redis的多实例功能,且配置主从同步的图

1.准备好2个redis的配置文件,分别写入如下内容

[root@localhost s25redis]# vim s25-master-redis.conf 
port 6379
daemonize yes
pidfile /s25/6379/redis.pid
loglevel notice
logfile "/s25/6379/redis.log"
dbfilename dump.rdb
dir /s25/6379
protected-mode no

2.准备第二个配置文件

[root@localhost s25redis]# vim s25-slave-redis.conf 
port 6389
daemonize yes
pidfile /s25/6389/redis.pid
loglevel notice
logfile "/s25/6389/redis.log"
dbfilename dump.rdb
dir /s25/6389
protected-mode no
slaveof  127.0.0.1  6379  # 也可直接在配置文件中,定义好复制关系,启动后,立即就会建立复制

3.分别生成2个redis的数据文件夹

[root@localhost s25redis]# mkdir -p /s25/{6379,6389}

4.分别启动2个redis数据库,查看他们的身份复制关系

[root@localhost s25redis]# redis-server s25-master-redis.conf
[root@localhost s25redis]# redis-server s25-slave-redis.conf

5.分别检查他们的进程,以及复制关系

[root@localhost s25redis]# ps -ef | grep redis
root       4476      1  0 09:54 ?        00:00:00 redis-server *:6379
root       4480      1  0 09:54 ?        00:00:00 redis-server *:6389
root       4493   3186  0 09:55 pts/0    00:00:00 grep --color=auto redis
# 通过一条命令,配置他们的复制关系,注意,这个命令只是临时配置redis的复制关系,想要永久修改,还得修改配置文件
[root@s25linux s25redis]# redis-cli -p 6389 slaveof 127.0.0.1 6379
OK
[root@localhost s25redis]# redis-cli -p 6379 info replication
# Replication
role:master
connected_slaves:1
slave0:ip=127.0.0.1,port=6389,state=online,offset=141,lag=1
master_repl_offset:141
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:140
[root@localhost s25redis]# redis-cli -p 6389 info replication
# Replication
role:slave
master_host:127.0.0.1
master_port:6379
master_link_status:up
master_last_io_seconds_ago:2
master_sync_in_progress:0
slave_repl_offset:169
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

6.此时6379已然是主库,6389已然是从库

此时可以向6379中写入数据,能够同步到6389中
6389是一个只读的数据库,无法写入数据

[root@localhost s25redis]# redis-cli -p 6389
127.0.0.1:6389> keys *
(empty list or set)
127.0.0.1:6389> 
[root@localhost s25redis]# redis-cli -p 6379
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> 
[root@localhost s25redis]# redis-cli -p 6379
127.0.0.1:6379> set name nichousha
OK
127.0.0.1:6379> keys *
1) "name"
127.0.0.1:6379> get name
"nichousha"
127.0.0.1:6379> 
[root@localhost s25redis]# redis-cli -p 6389
127.0.0.1:6389> keys *
1) "name"
127.0.0.1:6389> get name
"nichousha"
127.0.0.1:6389> set name1 "chounizadi"
(error) READONLY You can't write against a read only slave.
127.0.0.1:6389> 
[root@localhost s25redis]# redis-cli -p 6379
127.0.0.1:6379> keys *
1) "name"
127.0.0.1:6379> set name2 "chounizadile"
OK
127.0.0.1:6379> keys *
1) "name2"
2) "name"
127.0.0.1:6379> 
[root@localhost s25redis]# redis-cli -p 6389
127.0.0.1:6389> keys *
1) "name2"
2) "name"
127.0.0.1:6389> 

一主多从的形式,以及主从复制故障切换

1.再创建一个配置文件,port是6399,且加入到一主一从的复制关系中去

[root@localhost s25redis]# vim s25-slave2-redis.conf 
port 6399
daemonize yes
pidfile /s25/6399/redis.pid
loglevel notice
logfile "/s25/6399/redis.log"
dbfilename dump.rdb
dir /s25/6399
protected-mode no
slaveof  127.0.0.1  6379 

2.创建数据文件夹

[root@localhost s25redis]# mkdir -p /s25/6399

3.启动6399的数据库,查看他的身份复制关系

[root@localhost s25redis]# redis-server s25-slave2-redis.conf
[root@localhost s25redis]# redis-cli -p 6399 info replication
# Replication
role:slave
master_host:127.0.0.1
master_port:6379
master_link_status:up
master_last_io_seconds_ago:6
master_sync_in_progress:0
slave_repl_offset:3003
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
[root@localhost s25redis]# redis-cli -p 6399
127.0.0.1:6399> keys *
1) "name"
2) "name2"

故障模拟

主库挂掉,从库不挂的场景

# 1.环境准备,准备3个redis的数据库实例,分别是 6379、6389、6399,配置好一主两从的关系
[root@localhost s25redis]# ps -ef | grep redis
root       4476      1  0 09:54 ?        00:00:02 redis-server *:6379
root       4480      1  0 09:54 ?        00:00:01 redis-server *:6389
root       5049      1  0 10:29 ?        00:00:00 redis-server *:6399
root       5153   3186  0 10:34 pts/0    00:00:00 grep --color=auto redis
# 分别查看复制关系
[root@localhost s25redis]# redis-cli -p 6379 info replication
# Replication
role:master
connected_slaves:2
slave0:ip=127.0.0.1,port=6389,state=online,offset=3507,lag=1
slave1:ip=127.0.0.1,port=6399,state=online,offset=3507,lag=1
master_repl_offset:3507
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:3506

# 2.此时直接干掉主库即可
# kill 6379的pid即可
[root@localhost s25redis]# kill -9 4476

# 3.此时留下2个孤零零的从库,没有了主人,还没法写入数据,很难受

# 4.此时一位从库,不乐意了,翻身农奴做主人,去掉自己的从库身份,没有这个从库的枷锁,我就是我自己的主人
[root@localhost s25redis]# redis-cli -p 6399 slaveof no one
OK
[root@localhost s25redis]# redis-cli -p 6399 info replication
# Replication
role:master
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

# 5.此时6399已然是主库了,修改6389的复制信息,改为6399即可
[root@localhost s25redis]# redis-cli -p 6389 slaveof 127.0.0.1 6399
OK

# 6.此时检查他们的复制关系
[root@localhost s25redis]# redis-cli -p 6389 info replication
# Replication
role:slave
master_host:127.0.0.1
master_port:6399
master_link_status:up
master_last_io_seconds_ago:8
master_sync_in_progress:0
slave_repl_offset:29
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
[root@localhost s25redis]# redis-cli -p 6399 info replication
# Replication
role:master
connected_slaves:1
slave0:ip=127.0.0.1,port=6389,state=online,offset=43,lag=0
master_repl_offset:43
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:42

# 7.此时可以向主库6399写入数据,6389查看数据即可

主库不挂,从库挂掉的场景

从库挂掉,无所谓,重新再建立一个从库,加入主从复制即可

你会发现,如此的手动切换复制关系,是很难受的,如果在夜里凌晨四点,redis主库突然挂了,该怎么办?

因此该怎么办?

  • 希望有一个人,能24h盯着这个主从复制,发现主库宕机之后,自动地进行主从切换

redis高可用哨兵

redis哨兵的工作原理

配置好redis的哨兵进程,一般都是使用3个哨兵(保安)
哨兵的作用是盯着redis主库,不断询问它是否存活,如果超过30s(设置的时间阈值)都没有回应,3个哨兵会判断主库宕机,谈话进行投票机制,因为3个哨兵,要自动的去选择从库为新的主库,每个哨兵的意见可能不一样
因此引出投票机制,少数服从多数
当多个哨兵达成一致,选择某一个从库阶段,自动的修改他们的配置文件,切换新的主库
此时如果宕机的主库,恢复后,哨兵也会自动将其加入集群,且自动分配为新的从库
这一切都是自动化,无需人为干预

redis集群

redis-sentinel

哨兵集群的配置

1.准备3个redis节点,1主2从的redis集群

# redis支持多实例        -------基于多个配置文件,运行处多个redis相互独立的进程
# s25-redis-6379.conf   -----主
[root@localhost ~]# pkill -9 redis
[root@localhost ~]# mkdir /s25sentinel
[root@localhost ~]# cd /s25sentinel/
[root@localhost s25sentinel]# mkdir -p /var/redis/data/
[root@localhost s25sentinel]# vim s25-redis-6379.conf
port 6379
daemonize yes
logfile "6379.log"
dbfilename "dump-6379.rdb"
dir "/var/redis/data/" 
# s25-redis-6380.conf  ------从1
[root@localhost s25sentinel]# vim s25-redis-6380.conf
port 6380
daemonize yes
logfile "6380.log"
dbfilename "dump-6380.rdb"
dir "/var/redis/data/" 
slaveof 127.0.0.1 6379
# s25-redis-6381.conf  -----从2
[root@localhost s25sentinel]# vim s25-redis-6381.conf
port 6381
daemonize yes
logfile "6381.log"
dbfilename "dump-6381.rdb"
dir "/var/redis/data/" 
slaveof 127.0.0.1 6379
# 查看3个配置文件,准备分别启动该进程
[root@localhost s25sentinel]# ls
s25-redis-6379.conf  s25-redis-6380.conf  s25-redis-6381.conf

# 分别启动3个进程后,检查进程情况 
[root@localhost s25sentinel]# redis-server s25-redis-6379.conf
[root@localhost s25sentinel]# redis-server s25-redis-6380.conf
[root@localhost s25sentinel]# redis-server s25-redis-6381.conf
[root@localhost s25sentinel]# ps -ef | grep redis
root       6763      1  0 12:36 ?        00:00:00 redis-server *:6379
root       6767      1  0 12:36 ?        00:00:00 redis-server *:6380
root       6772      1  0 12:36 ?        00:00:00 redis-server *:6381
root       6777   3186  0 12:36 pts/0    00:00:00 grep --color=auto redis

# 确认3个库的主从关系
[root@localhost s25sentinel]# redis-cli -p 6379 info replication
# Replication
role:master
connected_slaves:2
slave0:ip=127.0.0.1,port=6380,state=online,offset=71,lag=1
slave1:ip=127.0.0.1,port=6381,state=online,offset=71,lag=1
master_repl_offset:71
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:70

1主2从的环境搭建好了,准备招来3个值班的,也就是redis的哨兵

分别准备3个哨兵的配置文件,修改如下

三个哨兵的配置文件,仅仅是端口号的不同

[root@localhost s25sentinel]# vim s25-sentinel-26379.conf 

注释版

port 26379  
dir /var/redis/data/
logfile "26379.log"

// 当前Sentinel节点监控 192.168.119.10:6379 这个主节点
// 2代表判断主节点失败至少需要2个Sentinel节点节点同意
// mymaster是主节点的别名
sentinel monitor s25msredis 127.0.0.1 6379 2

// 每个Sentinel节点都要定期PING命令来判断Redis数据节点和其余Sentinel节点是否可达,如果超过30000毫秒30s且没有回复,则判定不可达
sentinel down-after-milliseconds s25msredis 30000

// 当Sentinel节点集合对主节点故障判定达成一致时,Sentinel领导者节点会做故障转移操作,选出新的主节点,
// 原来的从节点会向新的主节点发起复制操作,限制每次向新的主节点发起复制操作的从节点个数为1
sentinel parallel-syncs s25msredis 1

// 故障转移超时时间为180000毫秒
sentinel failover-timeout s25msredis 180000
daemonize yes 

无注释版

port 26379
dir /var/redis/data/
logfile "26379.log"
sentinel monitor s25msredis 127.0.0.1 6379 2
sentinel down-after-milliseconds s25msredis 30000
sentinel parallel-syncs s25msredis 1
sentinel failover-timeout s25msredis 180000
daemonize yes
[root@localhost s25sentinel]# vim s25-sentinel-26380.conf 
port 26380
dir /var/redis/data/
logfile "26380.log"
sentinel monitor s25msredis 127.0.0.1 6379 2
sentinel down-after-milliseconds s25msredis 30000

sentinel parallel-syncs s25msredis 1

sentinel failover-timeout s25msredis 180000
daemonize yes
[root@localhost s25sentinel]# vim s25-sentinel-26381.conf 
port 26381
dir /var/redis/data/
logfile "26381.log"
sentinel monitor s25msredis 127.0.0.1 6379 2
sentinel down-after-milliseconds s25msredis 30000

sentinel parallel-syncs s25msredis 1

sentinel failover-timeout s25msredis 180000
daemonize yes
# 分别启动3个哨兵进程,以及查看进程信息
[root@localhost s25sentinel]# redis-sentinel s25-sentinel-26379.conf
[root@localhost s25sentinel]# redis-sentinel s25-sentinel-26380.conf
[root@localhost s25sentinel]# redis-sentinel s25-sentinel-26381.conf
[root@localhost s25sentinel]# ps -ef | grep redis
root       6763      1  0 12:36 ?        00:00:00 redis-server *:6379
root       6767      1  0 12:36 ?        00:00:00 redis-server *:6380
root       6772      1  0 12:36 ?        00:00:00 redis-server *:6381
root       6910      1  0 12:46 ?        00:00:00 redis-sentinel *:26379 [sentinel]
root       6914      1  0 12:46 ?        00:00:00 redis-sentinel *:26380 [sentinel]
root       6918      1  0 12:46 ?        00:00:00 redis-sentinel *:26381 [sentinel]
root       6922   3186  0 12:46 pts/0    00:00:00 grep --color=auto redis

# 检查redis哨兵的配置文件,以及哨兵的状态
[root@localhost s25sentinel]# redis-cli -p 26379 info sentinel
# Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=s25msredis,status=ok,address=127.0.0.1:6379,slaves=2,sentinels=3

在哨兵搭建好了之后,模拟干掉主库,然后等待主从的一个自动化切换

# 1.检查6379的进程,杀死后,哨兵能够自动的,进行投票选举,剩下来的一个slave为新的master,然后重新分配主从关系
[root@localhost s25sentinel]#  ps -ef | grep redis
root       6763      1  0 12:36 ?        00:00:01 redis-server *:6379
root       6767      1  0 12:36 ?        00:00:01 redis-server *:6380
root       6772      1  0 12:36 ?        00:00:01 redis-server *:6381
root       6910      1  0 12:46 ?        00:00:01 redis-sentinel *:26379 [sentinel]
root       6914      1  0 12:46 ?        00:00:01 redis-sentinel *:26380 [sentinel]
root       6918      1  0 12:46 ?        00:00:01 redis-sentinel *:26381 [sentinel]
root       7163   3186  0 13:02 pts/0    00:00:00 grep --color=auto redis
[root@localhost s25sentinel]# redis-cli -p 6379 info replication
# Replication
role:master
connected_slaves:2
slave0:ip=127.0.0.1,port=6380,state=online,offset=249366,lag=0
slave1:ip=127.0.0.1,port=6381,state=online,offset=249366,lag=0
master_repl_offset:249366
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:249365
[root@localhost s25sentinel]# kill 6763
[root@localhost s25sentinel]# redis-cli -p 6380 info replication
# Replication
role:slave
master_host:127.0.0.1
master_port:6379
master_link_status:down
master_last_io_seconds_ago:-1
master_sync_in_progress:0
slave_repl_offset:272470
master_link_down_since_seconds:27
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
[root@localhost s25sentinel]# redis-cli -p 6381 info replication
# Replication
role:slave
master_host:127.0.0.1
master_port:6379
master_link_status:down
master_last_io_seconds_ago:-1
master_sync_in_progress:0
slave_repl_offset:272470
master_link_down_since_seconds:29
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
[root@localhost s25sentinel]# redis-cli -p 6380 info replication
# Replication
role:master
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
[root@localhost s25sentinel]# redis-cli -p 6381 info replication
# Replication
role:slave
master_host:127.0.0.1
master_port:6380
master_link_status:up
master_last_io_seconds_ago:1
master_sync_in_progress:0
slave_repl_offset:834
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

# 2.故障的修复,修复6379这个redis数据库,且检查它的一个复制关系
# 6379数据库会重新假如到主从复制,且变为一个新的从库

# 3.如果想恢复他们的主从关系,全部kill掉,重新启动,默认就会以配置文件分配主从关系了

redis-cluster 搭建

准备好6匹马儿,也就是6个redis节点,也就是6个配置文件,redis集群节点最少是使用6个

这6个配置文件,仅仅是端口号的不同而已

[root@localhost s25sentinel]# mkdir /s25rediscluster
[root@localhost s25sentinel]# cd /s25rediscluster/
[root@localhost s25rediscluster]# vim s25-redis-7000.conf
port 7000
daemonize yes
dir "/opt/redis/data"
logfile "7000.log"
dbfilename "dump-7000.rdb"
cluster-enabled yes   #开启集群模式
cluster-config-file nodes-7000.conf  #集群内部的配置文件
cluster-require-full-coverage no  #redis cluster需要16384个slot都正常的时候才能对外提供服务,换句话说,只要任何一个slot异常那么整个cluster不对外提供服务。 因此生产环境一般为no
[root@localhost s25rediscluster]# vim s25-redis-7001.conf
port 7001
daemonize yes
dir "/opt/redis/data"
logfile "7001.log"
dbfilename "dump-7001.rdb"
cluster-enabled yes
cluster-config-file nodes-7001.conf
cluster-require-full-coverage no
[root@localhost s25rediscluster]# vim s25-redis-7002.conf
port 7002
daemonize yes
dir "/opt/redis/data"
logfile "7002.log"
dbfilename "dump-7002.rdb"
cluster-enabled yes
cluster-config-file nodes-7002.conf
cluster-require-full-coverage no
[root@localhost s25rediscluster]# vim s25-redis-7003.conf
port 7003
daemonize yes
dir "/opt/redis/data"
logfile "7003.log"
dbfilename "dump-7003.rdb"
cluster-enabled yes
cluster-config-file nodes-7003.conf
cluster-require-full-coverage no
[root@localhost s25rediscluster]# vim s25-redis-7004.conf
port 7004
daemonize yes
dir "/opt/redis/data"
logfile "7004.log"
dbfilename "dump-7004.rdb"
cluster-enabled yes
cluster-config-file nodes-7004.conf
cluster-require-full-coverage no
[root@localhost s25rediscluster]# vim s25-redis-7005.conf
port 7005
daemonize yes
dir "/opt/redis/data"
logfile "7005.log"
dbfilename "dump-7005.rdb"
cluster-enabled yes
cluster-config-file nodes-7005.conf
cluster-require-full-coverage no
# 生成数据文件夹  
[root@localhost s25rediscluster]# mkdir -p /opt/redis/data
# 分别启动6个redis节点,且检查进程
[root@s25linux s25rediscluster]# redis-server s25-redis-7000.conf
[root@s25linux s25rediscluster]# redis-server s25-redis-7001.conf
[root@s25linux s25rediscluster]# redis-server s25-redis-7002.conf
[root@s25linux s25rediscluster]# redis-server s25-redis-7003.conf
[root@s25linux s25rediscluster]# redis-server s25-redis-7004.conf
[root@s25linux s25rediscluster]# redis-server s25-redis-7005.conf
[root@localhost s25rediscluster]# ps -ef | grep redis
root       6767      1  0 12:36 ?        00:00:05 redis-server *:6380
root       6772      1  0 12:36 ?        00:00:05 redis-server *:6381
root       6910      1  0 12:46 ?        00:00:08 redis-sentinel *:26379 [sentinel]
root       6914      1  0 12:46 ?        00:00:08 redis-sentinel *:26380 [sentinel]
root       6918      1  0 12:46 ?        00:00:08 redis-sentinel *:26381 [sentinel]
root       8137      1  0 14:15 ?        00:00:00 redis-server *:7000 [cluster]
root       8141      1  0 14:15 ?        00:00:00 redis-server *:7001 [cluster]
root       8146      1  0 14:15 ?        00:00:00 redis-server *:7002 [cluster]
root       8150      1  0 14:15 ?        00:00:00 redis-server *:7003 [cluster]
root       8154      1  0 14:15 ?        00:00:00 redis-server *:7004 [cluster]
root       8166      1  0 14:15 ?        00:00:00 redis-server *:7005 [cluster]
root       8170   3186  0 14:15 pts/0    00:00:00 grep --color=auto redis
# 此时尝试写入数据,发现不能写入数据
# 因为现在仅仅是启动了6个redis节点,准备好了6匹马儿,马儿身上的框还没分配
[root@localhost s25rediscluster]# redis-cli -p 7000
127.0.0.1:7000> keys *
(empty list or set)
127.0.0.1:7000> set name hahahahahaha
(error) CLUSTERDOWN Hash slot not served
127.0.0.1:7000> 

此时准备好ruby的环境,用于一键创建redis集群,给马儿分配框,给redis节点分配slot槽位,用于写入数据

1.直接yum安装ruby解释器ruby和python一样是一个解释性编程语言,日本大神开发的

# ruby=====python    gem====pip3   gem是ruby的包管理工具
[root@localhost s25rediscluster]# yum install ruby -y 

2.检查ruby和gem的环境

[root@localhost s25rediscluster]# ruby -v
ruby 2.0.0p648 (2015-12-16) [x86_64-linux]

[root@localhost s25rediscluster]# gem -v
2.0.14.1

3.下载ruby操作redis的模块,用于创建集群

[root@localhost s25rediscluster]# wget http://rubygems.org/downloads/redis-3.3.0.gem

4.用gem安装此模块,ruby就可以操作redis数据库了

[root@localhost s25rediscluster]# gem install -l redis-3.3.0.gem   # 就如同python的 pip3 install xxxx

5.搜索ruby创建redis集群的脚本

# redis-trib.rb 如何知道它的绝对路径?
# which 是搜索PATH环境变量中的命令的绝对路径
# find  才是搜索系统上的文件路径
[root@localhost s25rediscluster]# find / -name "redis-trib.rb"  # 默认会在redis数据库的编译安装路径下

6.一键创建集群,且自动分配槽位,可以写入数据了

redis-trib.rb create --replicas 1 127.0.0.1:7000 127.0.0.1:7001 127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005

7.进入集群写入数据,查看数据重定向

与redis 概念初识及基本使用相似的内容:

redis 概念初识及基本使用

博客地址:https://www.cnblogs.com/zylyehuo/ 五大数据类型 参考链接:redis学习 string,字符串类型 hash,哈希类型,如同python的dict set,无序集合 zset,有序集合 list,双向队列,向左插入数据,向右插入数据,向左、右,提取数据 r

[转帖]redis惰性删除 lazy free 源码剖析,干货满满

目录 前言 数据删除场景 lazy free 概念 配置 源码剖析(版本 6.2.6) 场景一:客户端执行的显示删除/清除命令 场景二:某些指令带有的隐式删除命令 场景三:删除过期数据 场景四:内存淘汰数据删除 场景五:主从同步清空从库 小结 前言 都说 redis 是单线程的,其实并不是说 red

[转帖]Redis 6.0 redis-cluster-proxy 说明

https://www.cnblogs.com/zhoujinyi/p/13267222.html Redis3.0版本之后开始支持了Redis Cluster,Redis也开始有了分布式缓存的概念。关于Redis Cluster的相关说明,可以看之前的几篇文章:Redis Cluster 原理相关

[转帖]Redis 6.1 redis-cluster-proxy 实践说明

https://tool.4xseo.com/article/190027.html 摘要: 背景RedisCluster从Redis 3.0开始就得到支持,并且Redis已经开始有分布式缓存的概念。有关R ... 展开 背景 ​ Redis3.0版本之后开始支持了Redis Cluster,Red

深入理解跳表及其在Redis中的应用

跳表可以达到和红黑树一样的时间复杂度 O(logN),且实现简单,Redis 中的有序集合对象的底层数据结构就使用了跳表。本篇文章从调表的基础概念、节点、初始化、添加方法、搜索方法以及删除方法出发,介绍了调表的完整代码以及调表在redis中的应用。

[转帖]调整Redis定期任务的执行频率

https://help.aliyun.com/document_detail/142171.html 通过修改hz参数的值,您可以调整Redis执行定期任务的频率,从而改变Redis清除过期key、清理超时连接的效率。 Redis定期任务与hz参数的关系 为了定期检测资源和服务状态并根据预定策略执

轻松掌握组件启动之Redis集群扩展秘籍:轻松扩容与缩容,释放高性能潜能

在这篇文章中,我们将揭示Redis集群的扩容和缩容操作,让您的Redis集群发挥最佳性能和可伸缩性。通过增加主节点和从节点,并将它们无缝添加到集群中,您将能够轻松扩展您的Redis集群以满足不断增长的需求。同时,我们还将探讨如何进行缩容操作,即删除节点,以优化集群资源的利用。无论您是初学者还是经验丰...

redis系列02---缓存过期、穿透、击穿、雪崩

一、缓存过期 问题产生的原由: 内存空间有限,给缓存设置过期时间,但有些键值运气比较好,每次都没有被我的随机算法选中,每次都能幸免于难,这可不行,这些长时间过期的数据一直霸占着不少的内存空间! 解决方案: redis提供8种策略供应用程序选择,用于我遇到内存不足时该如何决策: * noevictio

【进阶篇】基于 Redis 实现分布式锁的全过程

这一篇文章拖了有点久,虽然在项目中使用分布式锁的频率比较高,但整理成文章发布出来还是花了一点时间。在一些移动端、用户量大的互联网项目中,经常会使用到 Redis 分布式锁作为控制访问高并发的工具。

Redis网络模型

theme: condensed-night-purple highlight: androidstudio 主从复制原理 建立连接 从节点在配置了 replicaof 配置了主节点的ip和port 从库执行replicaof 并发送psync命令 同步数据到从库 主库bgsave生成RDB文件,并