Redis持久化
RDB
redis database
- Redis是内存数据库,如果不将内存中的数据状态保存到磁盘,那么一旦服务器进程退出,服务器中的数据状态也会消失,所以Redis提供了持久化功能
- 在主从复制中,rdb是备用的,在从机上面!aof一般不使用
什么是RDS
- 在指定的时间间隔内将内存中的数据快照写入磁盘,也就是Snapshot快照,它恢复时是将快照文件直接读到内存里。
- Redis会单独创建(fork)一个子进程来进行持续优化,会先将数据写入到一个临时文件中,待持久化过程结束了,再用这个临时文件替换上次持久化好的文件,整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能,如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB模式要比AOF方式更加的高效,RDB的缺点是最后一次持久化后的数据可能丢失,默认的就是RDB,一般情况下不需要修改配置!
- 缺点是最后一次持久化如果宕机没有办法保存数据
- rdb保存的文件是 dump.rdb
- 有时候在生产环境我们会将这个文件进行备份!
# The filename where to dump the DB
dbfilename dump.rdb
认识RDS
- 我们测试一下:只要60s 内修改5次key,就触发rdb操作
- RDS的启动命令:Save
save 60 5
[root@pakho bin]# rm -rf dump.rdb
127.0.0.1:6379> save
OK
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> set k2 v2
OK
127.0.0.1:6379> set k3 v3
OK
127.0.0.1:6379> set k4 v4
OK
127.0.0.1:6379> set k5 v5
OK
#会再次生成一个rdb文件
[root@pakho bin]# ls
dump.rdb redis-benchmark redis-check-aof redis-check-rdb redis-cli redis_config redis-sentinel redis-server
- 此时,断开数据库,检查数据是否存在
127.0.0.1:6379> shutdown
not connected> exit
[root@pakho bin]# redis-server redis_config/redis.conf
[root@pakho bin]# redis-cli -p 6379
127.0.0.1:6379> get k1
"v1" #重新启动后数据依旧存在
RDB触发机制
[root@pakho bin]# rm -rf dump.rdb
127.0.0.1:6379> flushall
OK
[root@pakho bin]# ls #立即生成一个rdb文件
dump.rdb redis-benchmark redis-check-aof redis-check-rdb redis-cli redis_config redis-sentinel redis-server
#查看需要存在的位置
127.0.0.1:6379> config get dir
1) "dir"
2) "/usr/local/bin" #如果在这个目录下存在dump.rdb文件,启动会自动恢复其中的数据
- 几乎自己的默认配置就够用了,但是我们还是需要去学习
优点:
- 适合大规模的数据恢复!
- 对数据完整性要求不高
缺点
AOF
Append Only file
什么是AOF
- 将所有命令记录下来,好比history,恢复的时候就把这个文件全部执行以一遍
- 以日志的形式来记录每个写的操作,将redis执行过的所有指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初就会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
- AOF保存的是 appendonly.aof文件
AOF的一些配置
配置文件部分
############################## APPEND ONLY MODE ###############################
appendonly yes #默认不开启手动配置
appendfilename "appendonly.aof"
# appendfsync always
appendfsync everysec #每秒钟修改一次,只会丢失1秒钟的数据
# appendfsync no
no-appendfsync-on-rewrite no #是否运用aof重写默认是no,保证数据的安全性
auto-aof-rewrite-percentage 100 #重写规则
auto-aof-rewrite-min-size 64mb #超过64mb 会开启一个新的文件进行重写
[root@pakho bin]# redis-server redis_config/redis.conf
[root@pakho bin]# redis-cli -p 6379
127.0.0.1:6379> ping
PONG
[root@pakho bin]# ls #重启后会生成aof文件
appendonly.aof
AOF开启后的验证
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> set k2 v2
OK
127.0.0.1:6379> set k3 v3
OK
127.0.0.1:6379> set k4 v4
OK
127.0.0.1:6379> set k5 v5
OK
[root@pakho bin]# vim appendonly.aof #查看内容,以日志级别记录我们的所有写操作
- 模拟aof文件出错
127.0.0.1:6379> shutdown
not connected> exit
[root@pakho bin]# rm -rf dump.rdb #删除rdb文件保证环境正常
[root@pakho bin]# vim appendonly.aof
qwertttyyuu #随机添加一串字符
[root@pakho bin]# redis-server redis_config/redis.conf #此时重新登录提示无法连接,因为刷新失败
[root@pakho bin]# redis-cli -p 6379
Could not connect to Redis at 127.0.0.1:6379: Connection refused
AOF文件破坏后的修复
[root@pakho bin]# redis-check-aof --fix appendonly.aof
0x ba: Expected prefix '*', got: 'q'
AOF analyzed: size=199, ok_up_to=186, ok_up_to_line=44, diff=13
This will shrink the AOF from 199 bytes, with 13 bytes, to 186 bytes
Continue? [y/N]: y
Successfully truncated AOF
#再次启动,一切正常
[root@pakho bin]# redis-server redis_config/redis.conf
[root@pakho bin]# redis-cli -p 6379
127.0.0.1:6379> ping
PONG
127.0.0.1:6379> get k1
"v1"
优点
- 每次修改都同步
- 每秒同步一次,可能会丢失一秒的数据
- 从不同步是效率最高的
缺点
Redis持久化的扩展
- RDB持久化方式能够在指定的时间间隔内对你的数据进行快照存储
- AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以Redis 协议追加保存每次写的操作到文件末尾,Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。
- 只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化
- 同时开启两种持久化方式
- 性能建议
- 因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 9001这条规则。
- 如果Enable AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值。
- 如果不Enable AOF,仅靠Master-Slave Repllcation实现高可用性也可以,能省掉一大笔IO,也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时宕掉(断电),会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave 中的RDB文件,载入较新的那个,微博就是这种架构。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。