Redis

Redis缓存三兄弟(穿透、击穿、雪崩)

缓存穿透

缓存穿透:查询一个不存在的数据,mysql查询不到数据也不会直接写入缓存,就会导致每次请求都查数据库。

image-20230813144702469

解决方案一:缓存空数据,查询返回的数据为空,仍把这个空结果进行缓存

优点:简单

缺点:消耗内存,可能会发生不一致的问题

解决方案二:布隆过滤器

image-20230813145336960

优点:内存占用较少,没有多余key

缺点:实现复杂,存在误判

布隆过滤器技术原理及应用实战

bitmap(位图):相当于是一个以(bit)为单位的数组,数组中每个单元只能存储二进制数0或1

布隆过滤器作用:布隆过滤器可以用于检索一个元素是否在一个集合中。

image-20230813203253275

image-20230813203414860

变量 hash函数个数 位图大小

RedissonClient工具类中集成了BloomFilter,使用方法如下

import org.redisson.api.RBloomFilter;
import org.redisson.api.RedissonClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;

@Service
public class BloomFilterService {

    @Autowired
    private RedissonClient redissonClient;

    /**
     * 创建布隆过滤器
     *
     * @param filterName          过滤器名称
     * @param falseProbability    误判率
     * @param expectedInsertions  预期插入数
     */
    public void createBloomFilter(String filterName, double falseProbability, long expectedInsertions) {
    	//创建布隆过滤器
        RBloomFilter<String> bloomFilter = redissonClient.getBloomFilter(filterName);
        //初始化布隆过滤器 
        bloomFilter.tryInit(expectedInsertions, falseProbability);
    }

    /**
     * 向布隆过滤器中添加元素
     *
     * @param filterName  过滤器名称
     * @param element     要添加的元素
     */
    public void addElementToBloomFilter(String filterName, String element) {
        RBloomFilter<String> bloomFilter = redissonClient.getBloomFilter(filterName);
        bloomFilter.add(element);
    }

    /**
     * 检查布隆过滤器是否可能包含指定的元素
     *
     * @param filterName  过滤器名称
     * @param element     要检查的元素
     * @return            布隆过滤器是否可能包含指定的元素
     */
    public boolean mightContainElement(String filterName, String element) {
        RBloomFilter<String> bloomFilter = redissonClient.getBloomFilter(filterName);
        return bloomFilter.contains(element);
    }
}

总结

  1. Redis的使用场景

l根据自己简历上的业务进行回答 l缓存 穿透、击穿、雪崩、双写一致、持久化、数据过期、淘汰策略 l分布式锁 setnx、redisson

  1. 什么是缓存穿透,怎么解决

缓存穿透:查询一个不存在的数据,mysql查询不到数据也不会直接写入缓存,就会导致每次请求都查数据库

解决方案一:缓存空数据 解决方案二:布隆过滤器

缓存击穿

缓存击穿:给某一个key设置了过期时间,当key过期的时候,恰好这时间点对这个key有大量的并发请求过来,这些并发的请求可能会瞬间把DB压垮

image-20230813204555655

**解决方案一:**互斥锁 **解决方案二:**逻辑过期

image-20230813205242055

总结

**缓存击穿:**给某一个key设置了过期时间,当key过期的时候,恰好这时间点对这个key有大量的并发请求过来,这些并发的请求可能会瞬间把DB压垮

l解决方案一:互斥锁,强一致,性能差 l解决方案二:逻辑过期,高可用,性能优,不能保证数据绝对一致

缓存雪崩

缓存雪崩:指在同一时段大量的缓存key同时失效或者Redis服务宕机,导致大量请求到达数据库,带来巨大压力

image-20230813205905319

解决方案

  • 给不同的Key的TTL添加随机值
  • 利用Redis集群提高服务的可用性 哨兵模式、集群模式
  • 给缓存业务添加降级限流策略 ngxin或spring cloud gateway
  • 给业务添加多级缓存 Guava或Caffeine

总结

  1. 缓存雪崩是指在同一时段大量的缓存key同时失效或者Redis服务宕机,导致大量请求到达数据库,带来巨大压力。

  2. 解决方案:

  • 给不同的Key的TTL添加随机值
  • 利用Redis集群提高服务的可用性
  • 给缓存业务添加降级限流策略 降级可做为系统的保底策略,适用于穿透、击穿、雪崩
  • 给业务添加多级缓存

《缓存三兄弟》

穿透无中生有key,布隆过滤null隔离。 缓存击穿过期key, 锁与非期解难题。 雪崩大量过期key,过期时间要随机。 面试必考三兄弟,可用限流来保底。

Redis 双写一致

双写一致性:当修改了数据库的数据也要同时更新缓存的数据,缓存和数据的数据要保持一致

image-20230813212247168

  • 读操作:缓存命中,直接返回;缓存未命中查询数据库,写入缓存,设定超时时间
  • 写操作:延迟双删

image-20230813212406786

  1. 先删除缓存,还是先修改数据库(都不行)

image-20230813213721146

image-20230813214012339

读锁(共享锁)

image-20230813214042953

写锁(排它锁)

image-20230813214105833

异步通知保证数据的最终一致性

image-20230813214330493

基于Canal的异步通知:

image-20230813214438794

二进制日志(BINLOG)记录了所有的 DDL(数据定义语言)语句和 DML(数据操纵语言)语句,但不包括数据查询(SELECT、SHOW)语句。

总结

redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)

1.介绍自己简历上的业务,我们当时是把文章的热点数据存入到了缓存中,虽然是热点数据,但是实时要求性并没有那么高,所以,我们当时采用的是异步的方案同步的数据

2.我们当时是把抢券的库存存入到了缓存中,这个需要实时的进行数据同步,为了保证数据的强一致,我们当时采用的是redisson提供的读写锁来保证数据的同步

那你来介绍一下异步的方案(你来介绍一下redisson读写锁的这种方案)

l允许延时一致的业务,采用异步通知 ①使用MQ中间中间件,更新数据之后,通知缓存删除 ②利用canal中间件,不需要修改业务代码,伪装为mysql的一个从节点,canal通过读取binlog数据更新缓存

l强一致性的,采用Redisson提供的读写锁 ①共享锁:读锁readLock,加锁之后,其他线程可以共享读操作 ②排他锁:独占锁writeLock也叫,加锁之后,阻塞其他线程读写操作

Redis持久化

在Redis中提供了两种数据持久化的方式:1、RDB 2、AOF

RDB

RDB全称Redis Database Backup file(Redis数据备份文件),也被叫做Redis数据快照。简单来说就是把内存中的所有数据都记录到磁盘中。当Redis实例故障重启后,从磁盘读取快照文件,恢复数据

[root@localhost ~]# redis-cli
127.0.0.1:6379> save #由Redis主进程来执行RDB,会阻塞所有命令
127.0.0.1:6379> bgsave #开启子进程执行RDB,避免主进程受到影响
Background saving started

Redis内部有触发RDB的机制,可以在redis.conf文件中找到,格式如下:

# 900秒内,如果至少有1个key被修改,则执行bgsave 
save 900 1  
save 300 10  
save 60 10000 

RDB执行原理

bgsave开始是回fork主进程得到子进程,子进程 共享主进程的内存数据。完成fork后读取内存数据并写入RDB文件。 fork采用的是copy-on-write技术: •当主进程执行读操作时,访问共享内存; •当主进程执行写操作时,则会拷贝一份数据,执行写操作。 fork类似于克隆

image-20230814211430351

AOF

AOF全称为Append Only File(追加文件)。Redis处理的每一个写命令都回记录在AOF文件,可以看作是命令日志文件。

image-20230814211846803

AOF默认是关闭的,需要修改redis.conf配置文件来开启AOF:

# 是否开启AOF功能,默认是no
appendonly yes
# AOF文件的名称
appendfilename "appendonly.aof

AOF的命令记录的频率也可以通过redis.conf文件来配:

# 表示每执行一次写命令,立即记录到AOF文件
appendfsync always 
# 写命令执行完先放入AOF缓冲区,然后表示每隔1秒将缓冲区数据写到AOF文件,是默认方案
appendfsync everysec 
# 写命令执行完先放入AOF缓冲区,由操作系统决定何时将缓冲区内容写回磁盘
appendfsync no
配置项刷盘时机优点缺点
Always同步刷盘可靠性高,几乎不丢数据性能影响大
everysec每秒刷盘性能适中最多丢失1秒数据
no操作系统控制性能最好可靠性较差,可能丢失大量数据

因为是记录命令,AOF文件会比RDB文件大的多。而且AOF会记录对同一个key的多次写操作,但只有最后一次写操作才有意义。通过执行bgrewriteaof命令,可以让AOF文件执行重写功能,用最少的命令达到相同效果。

image-20230814212737158

Redis也会在触发阈值时自动去重写AOF文件。阈值也可以在redis.conf中配置:

# AOF文件比上次文件 增长超过多少百分比则触发重写
auto-aof-rewrite-percentage 100
# AOF文件体积最小多大以上才触发重写 
auto-aof-rewrite-min-size 64mb 

RDB与AOF对比

RDB和AOF各有自己的优缺点,如果对数据安全性要求较高,在实际开发中往往会结合两者来使用。

RDBAOF
持久化方式定时对整个内存做快照记录每一次执行的命令
数据完整性不完整,两次备份之间会丢失相对完整,取决于刷盘策略
文件大小会有压缩,文件体积小记录命令,文件体积很大
宕机恢复速度很快
数据恢复优先级低,因为数据完整性不如AOF高,因为数据完整性更高
系统资源占用高,大量CPU和内存消耗低,主要是磁盘IO资源 但AOF重写时会占用大量CPU和内存资源
使用场景可以容忍数分钟的数据丢失,追求更快的启动速度对数据安全性要求较高常见

Redis数据过期策略

Redis对数据设置数据的有效时间,数据过期以后,就需要将数据从内存中删除掉。可以按照不同的规则进行删除,这种删除规则就被称之为数据的删除策略(数据过期策略)。

Redis中提供了两种数据删除策略:惰性删除定期删除

惰性删除

惰性删除:设置该key过期时间后,我们不去管它,当需要该key时,我们在检查其是否过期,如果过期,我们就删掉它,反之返回该key

image-20230814213948257

优点 :对CPU友好,只会在使用该key时才会进行过期检查,对于很多用不到的key不用浪费时间进行过期检查

缺点 :对内存不友好,如果一个key已经过期,但是一直没有使用,那么该key就会一直存在内存中,内存永远不会释放

定期删除

定期删除:每隔一段时间,我们就对一些key进行检查,删除里面过期的key(从一定数量的数据库中取出一定数量的随机key进行检查,并删除其中的过期key)。

定期清理有两种模式:

  • SLOW模式是定时任务,执行频率默认为10hz,每次不超过25ms,以通过修改配置文件redis.conf 的hz 选项来调整这个次数
  • FAST模式执行频率不固定,但两次间隔不低于2ms,每次耗时不超过1ms

优点:可以通过限制删除操作执行的时长和频率来减少删除操作对 CPU 的影响。另外定期删除,也能有效释放过期键占用的内存。

缺点:难以确定删除操作执行的时长和频率。

Redis的过期删除策略: 惰性删除+定期删除两种策略进行配合使用

总结

Redis的数据过期策略

惰性删除:访问key的时候判断是否过期,如果过期,则删除

定期删除:定期检查一定量的key是否过期( SLOW模式+ FAST模式)

Redis的过期删除策略:惰性删除 + 定期删除两种策略进行配合使用

Redis数据淘汰策略

数据的淘汰策略:在Redis中的内存不够用时,此时在向Redis中添加新的key,那么Redis就会按照某一种规则将内存中的数据删除掉,这种数据的删除规则被称之为内存的淘汰策略。

Redis支持8种不同策略来选择要删除的key: noeviction: 不淘汰任何key,但是内存满时不允许写入新数据,默认就是这种策略。 volatile-ttl: 对设置了TTL的key,比较key的剩余TTL值,TTL越小越先被淘汰 allkeys-random:对全体key ,随机进行淘汰。 volatile-random:对设置了TTL的key ,随机进行淘汰。 allkeys-lru: 对全体key,基于LRU算法进行淘汰 volatile-lru: 对设置了TTL的key,基于LRU算法进行淘汰 allkeys-lfu: 对全体key,基于LFU算法进行淘汰 volatile-lfu: 对设置了TTL的key,基于LFU算法进行淘汰

LRULeast Recently Used)最近最少使用。用当前时间减去最后一次访问时间,这个值越大则淘汰优先级越高。 例:key1是在3s之前访问的, key2是在9s之前访问的,删除的就是key2

LFULeast Frequently Used)最少频率使用。会统计每个key的访问频率,值越小淘汰优先级越高。 例:key1最近5s访问了4次, key2最近5s访问了9次, 删除的就是key1

数据淘汰策略-使用建议

1.优先使用 allkeys-lru 策略。充分利用 LRU 算法的优势,把最近最常访问的数据留在缓存中。如果业务有明显的冷热数据区分,建议使用。

2.如果业务中数据访问频率差别不大,没有明显冷热数据区分,建议使用 allkeys-random,随机选择淘汰。

3.如果业务中有置顶的需求,可以使用 volatile-lru 策略,同时置顶数据不设置过期时间,这些数据就一直不被删除,会淘汰其他设置过期时间的数据。

4.如果业务中有短时高频访问的数据,可以使用 allkeys-lfu 或 volatile-lfu 策略。

其他面试问题

1.数据库有1000万数据 ,Redis只能缓存20w数据, 如何保证Redis中的数据都是热点数据 ? 使用allkeys-lru(挑选最近最少使用的数据淘汰)淘汰策略,留下来的都是经常访问的热点数据

2.Redis的内存用完了会发生什么? 主要看数据淘汰策略是什么?如果是默认的配置( noeviction ),会直接报错

总结

1.Redis提供了8种不同的数据淘汰策略,默认是noeviction不删除任何数据,内存不足直接报错

2.LRU:最少最近使用。用当前时间减去最后一次访问时间,这个值越大则淘汰优先级越高。

3.LFU:最少频率使用。会统计每个key的访问频率,值越小淘汰优先级越高

平时开发过程中用的比较多的就是allkeys-lru(结合自己的业务场景)

Redis分布式锁

image-20230814220538570

image-20230814220730487

现在的服务基本都是集群部署,不能使用本地的锁,本地锁只对自己有效,这时就需要使用分布式锁

image-20230814220930021

image-20230814221029471

Redis实现分布式锁主要利用Redis的setnx命令。setnx时SET if not exists(如果不存在,则SET)的简写。

# 获取锁
# 添加锁,NX是互斥、EX是设置超时时间 必须添加超时时间 避免服务宕机导致死锁问题
SET lock value NX EX 10

# 释放锁
# 释放锁,删除即可
DEL key

image-20230814221845232

Redis实现分布式锁如何合理的控制锁的有效时长? 1.根据业务执行时间预估 不可靠 2.给锁续期

redisson实现的分布式锁-执行流程

image-20230814222352229

image-20230814222419910

redisson实现的分布式锁--可重入

public void add1(){
    RLock lock = redissonClient.getLock(“heimalock");
    boolean isLock = lock.tryLock();
    //执行业务
  add2();
    //释放锁
  lock.unlock();
}
public void add2(){
    RLock lock = redissonClient.getLock(“heimalock");
    boolean isLock = lock.tryLock();
    //执行业务
  //释放锁
  lock.unlock();
}

image-20230814223713629

redisson实现的分布式锁-主从一致性

image-20230814223753598

RedLock(红锁):不能只在一个redis实例上创建锁,应该是在多个redis实例上创建锁**(n / 2 + 1)**,避免在一个redis实例上加锁。

image-20230814223821929

总结

  1. redis分布式锁,是如何实现的? l先按照自己简历上的业务进行描述分布式锁使用的场景 l我们当使用的redisson实现的分布式锁,底层是setnxlua脚本(保证原子性)

  2. Redisson实现分布式锁如何合理的控制锁的有效时长? 在redisson的分布式锁中,提供了一个WatchDog(看门狗),一个线程获取锁成功以后, WatchDog会给持有锁的线程续期(默认是每隔10秒续期一次)

  3. Redisson的这个锁,可以重入吗? 可以重入,多个锁重入需要判断是否是当前线程,在redis中进行存储的时候使用的hash结构,来存储线程信息和重入的次数

  4. Redisson锁能解决主从数据一致的问题吗 不能解决,但是可以使用redisson提供的红锁来解决,但是这样的话,性能就太低了,如果业务中非要保证数据的强一致性,建议采用zookeeper实现的分布式锁

Redis集群方案

主从复制 哨兵模式 分片集群

主从复制

单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,就需要搭建主从集群,实现读写分离。

image-20230815114148014

主从全量同步

Replication Id:简称replid,是数据集的标记,id一致则说明是同一数据集。每一个master都有唯一的replid,slave则会继承master节点的replid

offset:偏移量,随着记录在repl_baklog中的数据增多而逐渐增大。slave完成同步时也会记录当前同步的offset。如果slave的offset小于master的offset,说明slave数据落后于master,需要更新。

image-20230815114607095

主从增量同步(slave重启或后期数据变化)

image-20230815114959320

总结

  1. redis的主从同步

单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,就需要搭建主从集群,实现读写分离。 一般都是一主多从,主节点负责写数据,从节点负责读数据

  1. 主从同步数据的流程

全量同步

1.从节点请求主节点同步数据(replication id、 offset ) 2.主节点判断是否是第一次请求,是第一次就与从节点同步版本信息(replication id和offset) 3.主节点执行bgsave,生成rdb文件后,发送给从节点去执行 4.在rdb生成执行期间,主节点会以命令的方式记录到缓冲区(一个日志文件) 5.把生成之后的命令日志文件发送给从节点进行同步

增量同步

1.从节点请求主节点同步数据,主节点判断不是第一次请求,不是第一次就获取从节点的offset值 2.主节点从命令日志中获取offset值之后的数据,发送给从节点进行数据同步

哨兵模式

Redis提供了哨兵(Sentinel)机制来实现主从集群的自动故障恢复。哨兵的结构和作用如下: •监控:Sentinel 会不断检查您的master和slave是否按预期工作 •自动故障恢复:如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主 •通知:Sentinel充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端

image-20230815115658448

服务状态监控

Sentinel基于心跳机制监测服务状态,每隔1秒向集群的每个实例发送ping命令: •主观下线:如果某sentinel节点发现某实例未在规定时间响应,则认为该实例主观下线。 •客观下线:若超过指定数量(quorum)的sentinel都认为该实例主观下线,则该实例客观下线。quorum值最好超过Sentinel实例数量的一半。

哨兵选主规则

•首先判断主与从节点断开时间长短,如超过指定值就排该从节点 •然后判断从节点的slave-priority值,越小优先级越高 •如果slave-prority一样,则判断slave节点的offset值,越大优先级越高 •最后是判断slave节点的运行id大小,越小优先级越高。

image-20230815152959071

redis集群(哨兵模式)脑裂

image-20230815153050710

image-20230815153211934

redis中有两个配置参数: min-replicas-to-write 1 表示最少的salve节点为1个 min-replicas-max-lag 5 表示数据复制和同步的延迟不能超过5秒

总结

怎么保证Redis的高并发高可用? 哨兵模式:实现主从集群的自动故障恢复(监控、自动故障恢复、通知)

你们使用redis是单点还是集群,哪种集群? 主从(1主1从)+ 哨兵就可以了。单节点不超过10G内存,如果Redis内存不足则可以给不同服务分配独立的Redis主从节点

redis集群脑裂,该怎么解决呢? 集群脑裂是由于主节点和从节点和sentinel处于不同的网络分区,使得sentinel没有能够心跳感知到主节点,所以通过选举的方式提升了一个从节点为主,这样就存在了两个master,就像大脑分裂了一样,这样会导致客户端还在老的主节点那里写入数据,新节点无法同步数据,当网络恢复后,sentinel会将老的主节点降为从节点,这时再从新master同步数据,就会导致数据丢失

解决:我们可以修改redis的配置,可以设置最少的从节点数量以及缩短主从数据同步的延迟时间,达不到要求就拒绝请求,就可以避免大量的数据丢失

分片集群结构

主从和哨兵可以解决高可用、高并发读的问题。但是依然有两个问题没有解决: •海量数据存储问题 •高并发写的问题

使用分片集群可以解决上述问题,分片集群特征: •集群中有多个master,每个master保存不同数据 •每个master都可以有多个slave节点 •master之间通过ping监测彼此健康状态 •客户端请求可以访问集群任意节点,最终都会被转发到正确节点

image-20230815154826234

分片集群结构--数据读写

Redis 分片集群引入了哈希槽的概念,Redis 集群有 16384 个哈希槽,每个 key通过 CRC16 校验后对 16384 取模来决定放置哪个槽,集群的每个节点负责一部分 hash 槽。

image-20230815154913689

总结

redis的分片集群有什么作用? l集群中有多个master,每个master保存不同数据 l每个master都可以有多个slave节点 lmaster之间通过ping监测彼此健康状态 l客户端请求可以访问集群任意节点,最终都会被转发到正确节点

Redis分片集群中数据是怎么存储和读取的? lRedis 分片集群引入了哈希槽的概念,Redis 集群有 16384 个哈希槽 l将16384个插槽分配到不同的实例 l读写数据:根据key的有效部分计算哈希值,对16384取余(有效部分,如果key前面有大括号,大括号的内容就是有效部分,如果没有,则以key本身做为有效部分)余数做为插槽,寻找插槽所在的实例

Redis单线程 速度为什么快

  1. Redis是单线程的,但是为什么还那么快? lRedis是纯内存操作,执行速度非常快 l采用单线程,避免不必要的上下文切换可竞争条件,多线程还要考虑线程安全问题 l使用I/O多路复用模型,非阻塞IO

  2. 能解释一下I/O多路复用模型? Redis是纯内存操作,执行速度非常快,它的性能瓶颈是网络延迟而不是执行速度, I/O多路复用模型主要就是实现了高效的网络请求 l用户空间和内核空间 l常见的IO模型 Ø阻塞IO(Blocking IO) Ø非阻塞IO(Nonblocking IO) ØIO多路复用(IO Multiplexing) lRedis网络模型

用户空间和内核空间

Linux系统中一个进程使用的内存情况划分两部分:内核空间、用户空间 用户空间只能执行受限的命令(Ring3),而且不能直接调用系统资源必须通过内核提供的接口来访问 内核空间可以执行特权命令(Ring0),调用一切系统资源

Linux系统为了提高IO效率,会在用户空间和内核空间都加入缓冲区: 写数据时,要把用户缓冲数据拷贝到内核缓冲区,然后写入设备 读数据时,要从设备读取数据到内核缓冲区,然后拷贝到用户缓冲区

image-20230815161520144

阻塞IO

顾名思义,阻塞IO就是两个阶段都必须阻塞等待:

阶段一: ①用户进程尝试读取数据(比如网卡数据) ②此时数据尚未到达,内核需要等待数据 ③此时用户进程也处于阻塞状态

阶段二: ①数据到达并拷贝到内核缓冲区,代表已就绪 ②将内核数据拷贝到用户缓冲区 ③拷贝过程中,用户进程依然阻塞等待 ④拷贝完成,用户进程解除阻塞,处理数据

image-20230815161609608

可以看到,阻塞IO模型中,用户进程在两个阶段都是阻塞状态。

非阻塞IO

顾名思义,非阻塞IO的recvfrom操作会立即返回结果而不是阻塞用户进程。

阶段一: ①用户进程尝试读取数据(比如网卡数据) ②此时数据尚未到达,内核需要等待数据 ③返回异常给用户进程 ④用户进程拿到error后,再次尝试读取 ⑤循环往复,直到数据就绪

阶段二: ①将内核数据拷贝到用户缓冲区 ②拷贝过程中,用户进程依然阻塞等待 ③拷贝完成,用户进程解除阻塞,处理数据

可以看到,非阻塞IO模型中,用户进程在第一个阶段是非阻塞,第二个阶段是阻塞状态。虽然是非阻塞,但性能并没有得到提高。而且忙等机制会导致CPU空转,CPU使用率暴增。

image-20230815161647575

IO多路复用

IO多路复用:是利用单个线程来同时监听多个Socket ,并在某个Socket可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。

阶段一: ①用户进程调用select,指定要监听的Socket集合 ②内核监听对应的多个socket ③任意一个或多个socket数据就绪则返回readable ④此过程中用户进程阻塞

阶段二:

①用户进程找到就绪的socket ②依次调用recvfrom读取数据 ③内核将数据拷贝到用户空间 ④用户进程处理数据

image-20230815162941928

IO多路复用是利用单个线程来同时监听多个Socket ,并在某个Socket可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。不过监听Socket的方式、通知的方式又有多种实现,常见的有:

  • select
  • poll
  • epoll

差异:

  • select和poll只会通知用户进程有Socket就绪,但不确定具体是哪个Socket ,需要用户进程逐个遍历Socket来确认

  • epoll则会在通知用户进程Socket就绪的同时,把已就绪的Socket写入用户空间

Redis网络模型

Redis通过IO多路复用来提高网络性能,并且支持各种不同的多路复用实现,并且将这些实现进行封装, 提供了统一的高性能事件库

image-20230815163149224

总结

能解释一下I/O多路复用模型?

  1. I/O多路复用

是指利用单个线程来同时监听多个Socket ,并在某个Socket可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。目前的I/O多路复用都是采用的epoll模式实现,它会在通知用户进程Socket就绪的同时,把已就绪的Socket写入用户空间,不需要挨个遍历Socket来判断是否就绪,提升了性能。

  1. Redis网络模型

就是使用I/O多路复用结合事件的处理器来应对多个Socket请求

  • 连接应答处理器

  • 命令回复处理器,在Redis6.0之后,为了提升更好的性能,使用了多线程来处理回复事件

  • 命令请求处理器,在Redis6.0之后,将命令的转换使用了多线程,增加命令转换速度,在命令执行的时候,依然是单线程

Redis面试题-参考回答.pdf

文章作者: Administrator
版权声明: 本站所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 欲念
Java八股文 Redis
喜欢就支持一下吧