实践:Redis6.0配置文件解读

avatar
作者
筋斗云
阅读量:0

详细解读redis配置文件

https://raw.githubusercontent.com/redis/redis/6.2/redis.conf

Units

  • 配置数据单位换算关系
  • 配置大小单位:当需要内存大小时,可以指定。开头定义了一些基本的度量单位,只支持bytes,不支持bit,大小写不敏感,因此 1GB 1Gb 1gB 都是一样的:
##################  该部分用于指定存储单位的大小换算关系,不区分大小写,只支持bytes,不支持bits # 1k => 1000 bytes # 1kb => 1024 bytes # 1m => 1000000 bytes # 1mb => 1024*1024 bytes # 1g => 1000000000 bytes # 1gb => 1024*1024*1024 bytes # # units are case insensitive so 1GB 1Gb 1gB are all the same.

包含其它配置文件的信息 include path

对于公共部分配置,可以按以下方式配置引入。类似jsp中的include,多实例的情况可以把公用的配置文件提取出来:

# include /path/to/local.conf # include /path/to/other.conf

Network 网络相关

  • bind IP1 [IP2 …]

这项配置绑定的IP并不是远程访问的客户端的IP地址,而是本机的IP地址。

# bind 192.168.1.100 10.0.0.1 # bind 127.0.0.1 ::1 bind 127.0.0.1

本机的IP地址是和网卡(network interfaces)绑定在一起的,配置这项后,Redis只会接收来自指定网卡的数据包。比如我的主机有以下网卡:

root@VM-4-5-ubuntu:~# ifconfig  eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500         inet 10.0.4.5  netmask 255.255.252.0  broadcast 10.0.7.255         inet6 fe80::5054:ff:fe0b:843  prefixlen 64  scopeid 0x20<link>         ether 52:54:00:0b:08:43  txqueuelen 1000  (Ethernet)         RX packets 283943  bytes 28027507 (28.0 MB)         RX errors 0  dropped 0  overruns 0  frame 0         TX packets 280878  bytes 43033240 (43.0 MB)         TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0  lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536         inet 127.0.0.1  netmask 255.0.0.0         inet6 ::1  prefixlen 128  scopeid 0x10<host>         loop  txqueuelen 1000  (Local Loopback)         RX packets 35168  bytes 2582220 (2.5 MB)         RX errors 0  dropped 0  overruns 0  frame 0         TX packets 35168  bytes 2582220 (2.5 MB)         TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

如果我想要让Redis可以远程连接的话,就需要让Redis监听eht0这块网卡,也就是要加上配置bind 127.0.0.1 10.0.4.5,这样既可以本地访问,也能够远程访问。(主要bind只能有一行配置,如果有多个网卡要监听,就配置多个ip,用空格隔开,否者只有配置的最后一个bind生效)。

  • 保护模式 protected-mode

从注释信息就可以看到,如果protected-modeyes的话,如果没有指定bind或者没有指定密码,那么只能本地访问。

protected-mode yes
  • 端口号 port

配置Redis监听的端口号,默认6379。

# Accept connections on the specified port, default is 6379 (IANA #815344). # If port 0 is specified Redis will not listen on a TCP socket. port 6379
  • TCP半连接队列长度配置 tcp-backlog

在进行TCP/IP连接时,内核会维护两个队列

  • syns queue用于保存已收到sync但没有接收到ack的TCP半连接请求。由/proc/sys/net/ipv4/tcp_max_syn_backlog指定,我的系统(Ubuntu20.04)上是1024。
  • accept queue,用于保存已经建立的连接,也就是全连接。由/proc/sys/net/core/somaxconn指定。

根据配置里的注释,需要同时提高somaxconntcp_max_syn_backlog的值来确保生效。

tcp-backlog 511
  • 是否超时无操作关闭连接 timeout

客户端经过多少时间(单位秒)没有操作就关闭连接,0代表永不关闭。

timeout 0
  • TCP连接保活策略 tcp-keepalive

TCP连接保活策略,可以通过tcp-keepalive配置项来进行设置,单位为秒,假如设置为60秒,则server端会每60秒向连接空闲的客户端发起一次ACK请求,以检查客户端是否已经挂掉,对于无响应的客户端则会关闭其连接。如果设置为0,则不会进行保活检测。

tcp-keepalive 300

GENERAL 通用配置

  • 启动方式 daemonize 是否以守护(后台)进程的方式启动,默认no。
daemonize yes 
  • 进程pid文件 pidfile

redis启动后会把pid写入到pidfile指定的文件中。

pidfile /var/run/redis_6379.pid
  • 进程pid文件 pidfile

redis启动后会把pid写入到pidfile指定的文件中。

pidfile /var/run/redis_6379.pid
  • 日志相关 loglevel logfile

loglevel用于配置日志打印机别,默认notice

  • debug:能设置的最高的日志级别,打印所有信息,包括debug信息。
  • verbose:打印除了debug日志之外的所有日志。
  • notice:打印除了debugverbose级别的所有日志。
  • warning:仅打印非常重要的信息。
loglevel notice  logfile ""

redis默认有16个数据库,编号从0开始。

databases 16
  • 启动是否显示logo
always-show-logo yes
SNAPSHOTTING 快照相关

SECURITY 安全相关

################################## SECURITY ###################################  # Warning: since Redis is pretty fast, an outside user can try up to # 1 million passwords per second against a modern box. This means that you # should use very strong passwords, otherwise they will be very easy to break. # Note that because the password is really a shared secret between the client # and the server, and should not be memorized by any human, the password # can be easily a long string from /dev/urandom or whatever, so by using a # long and unguessable password no brute force attack will be possible.

大致意思就是redis很快,所以被破解密码时,性能也很好,如果你的密码太渣渣了,那么可能很快就被破解了,因此尽量使用长且不容易被猜到的密码作为redis的访问密码。

配置ACL

ACL:访问控制列表。

有两种方法配置ACL:

  • 在命令行通过ACL命令进行配置
  • 在Redis配置文件中开始,可以直接在redis.conf中配置,也可以通过外部aclfile配置。aclfile path

配置语法:user <username> ... acl rules ...,例如 user worker +@list +@connection ~jobs:* on >ffa9203c493aa99

redis默认有一个default用户。如果default具有nopass规则(就是说没有配置密码),那么新连接将立即作为default用户登录,无需通过AUTH命令提供任何密码。否则,连接会在未验证状态下启动,并需要AUTH验证才能开始工作。

描述用户可以做的操作的ACL规则如下:

  • 启用或禁用用户(已经建立的连接不会生效)
    • on 启用用户,该用户可以验证身份登陆。
    • off 禁用用户,该用户不允许验证身份登陆。
  • 允许/禁止用户执行某些命令
    • +<command> 允许用户执行command指示的命令✅
    • -<command> 禁止用户执行command指示的命令🈲
    • +@<category> 允许用户执行category分类中的所有命令✅
    • -@<category> 禁止用户执行category分类中的所有命令🈲
    • +<command>|subcommand 允许执行某个被禁止的command的子命令subcommand。没有对应的-规则。✅
    • allcommands+@all的别名,允许执行所有命令。✅
    • nocommands-@all的别名,禁止执行所有命令。🈲
  • 允许/禁止用户访问某些Key
    • ~<pattern> 添加用户可以访问的Key,比如~*代表用户可以访问所有key,~K*代表用户可访问以K开头的key。✅
    • allkeys 等价于~*
    • resetkeys ~<pattern> 刷新允许模式的列表,会覆盖之前设置的模式。例如 user test ~* resetkeys ~K*,则只允许访问匹配K*的键,~*失效。✅
  • 为用户配置有效密码
    • ><password> 将密码添加到用户的有效密码列表中。例如user test >mypass on,则用户test可以使用mypass验证。
    • <<password> 将密码从用户的有效密码列表中删除,即不可以使用该密码验证。
    • nopass 使用任意密码都可以成功验证。
    • resetpass 清除用户可用密码列表的数据,并清除 nopass 状态。之后该用户不能登陆。直到重新设置密码/设置nopass
    • reset 重置用户到初始状态。该命令会执行以下操作:resetpass, resetkeys, off,-@all
  • ACL日志配置

设置ACL日志最大长度,默认128个记录。这个日志是存在内存里的。

acllog-max-len 128
  • 外部ACL文件配置

默认位置etc/redis/users.acl,我们可以在这个文件中定义所有用户的ACL控制信息。

aclfile /etc/redis/users.acl
  • 配置默认用户default的密码

该配置只对默认用户default生效。

requirepass yourpass 

CLIENTS 客户端配置

  • 设置最大同时客户端连接数

设置可以同时连接客户端的最大数量。默认该项设置为 10000 个客户端。达到限制值后的连接会被拒绝并会返回错误信息。

maxclients 10000

MEMORY MANAGEMENT 内存管理

  • maxmemory最大内存限制 指定Redis最大内存限制。达到内存限制时,Redis将尝试删除已到期或即将到期的Key。
    • 建议设置,否则,将内存占满,造成服务器宕机
    • 设置redis可以使用的内存量。一旦到达内存使用上限,redis将会试图移除内部数据,移除规则可以通过maxmemory-policy来指定。
    • 如果redis无法根据移除规则来移除内存中的数据,或者设置了“不允许移除”,那么redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。
    • 但是对于无内存申请的指令,仍然会正常响应,比如GET等。如果你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素。
maxmemory <bytes>
  • 达到最大内存限制时的策略maxmemory-policy

配置达到最大内存限制后,Redis进行何种操作。默认noeviction

maxmemory-policy noeviction

总共有8种策略可供选择。

  • volatile-lru 只对设置了过期时间的Key进行淘汰,淘汰算法近似的LRU。
  • allkeys-lru 对所有Key进行淘汰,LRU。
  • volatile-lfu 只对设置了过期时间的Key进行淘汰,淘汰算法近似的LFU。
  • allkeys-lfu 对所有Key进行淘汰,LFU。
  • volatile-random 只对设置了过期时间的Key进行淘汰,淘汰算法为随机淘汰。
  • allkeys-random 对所有Key进行淘汰,随机淘汰。
  • volatile-ttl 只对设置了过期时间的Key进行淘汰,删除即将过期的即ttl最小的。
  • noeviction 永不删除key,达到最大内存再进行数据装入时会返回错误。

对于可以通过删除key来释放内存的策略,如果没有key可以删除了,那么也会报错。

  • 使用LRU/LFU/TTL算法时采样率

Redis使用的是近似的LRU/LFU/minimal TTL算法。主要是为了节约内存以及提升性能。Redis配置文件有maxmemory-samples选项,可以配置每次取样的数量。Redis每次会选择配置数量的key,然后根据算法从中淘汰最差的key。

maxmemory-samples 5

可以通过修改这个配置来获取更高的淘汰精度或者更好的性能。默认值5就可以获得很好的结果。选择10可以非常接近真是的LRU算法,但是会耗费更多的CPU资源。3的话更快但是淘汰结果不是特别准确。

  • 从库不淘汰数据

配置Redis主从复制时,从库超过maxmemory也不淘汰数据。这个配置主要是为了保证主从库的一致性,因为Redis的淘汰策略是随机的,如果允许从库自己淘汰key,那么会导致主从不一致的现象出现(master节点删除key的命令会同步给slave节点)。

replica-ignore-maxmemory yes
  • 过期keys驻留在内存中的比例

设置过期keys仍然驻留在内存中的比重,默认是为1,表示最多只能有10%的过期key驻留在内存中,该值设置的越小,那么在一个淘汰周期内,消耗的CPU资源也更多,因为需要实时删除更多的过期key。

active-expire-effort 1

LAZY FREEING 懒惰删除

# Redis has two primitives to delete keys. One is called DEL and is a blocking # deletion of the object. It means that the server stops processing new commands # in order to reclaim all the memory associated with an object in a synchronous # way. If the key deleted is associated with a small object, the time needed # in order to execute the DEL command is very small and comparable to most other # O(1) or O(log_N) commands in Redis. However if the key is associated with an # aggregated value containing millions of elements, the server can block for # a long time (even seconds) in order to complete the operation. #  # For the above reasons Redis also offers non blocking deletion primitives # such as UNLINK (non blocking DEL) and the ASYNC option of FLUSHALL and # FLUSHDB commands, in order to reclaim memory in background. Those commands # are executed in constant time. Another thread will incrementally free the # object in the background as fast as possible. # DEL, UNLINK and ASYNC option of FLUSHALL and FLUSHDB are user-controlled. # It's up to the design of the application to understand when it is a good # idea to use one or the other. However the Redis server sometimes has to # delete keys or flush the whole database as a side effect of other operations. # Specifically Redis deletes objects independently of a user call in the # following scenarios: # # 1) On eviction, because of the maxmemory and maxmemory policy configurations, #    in order to make room for new data, without going over the specified #    memory limit. # 2) Because of expire: when a key with an associated time to live (see the #    EXPIRE command) must be deleted from memory. # 3) Because of a side effect of a command that stores data on a key that may #    already exist. For example the RENAME command may delete the old key #    content when it is replaced with another one. Similarly SUNIONSTORE #    or SORT with STORE option may delete existing keys. The SET command #    itself removes any old content of the specified key in order to replace #    it with the specified string. # 4) During replication, when a replica performs a full resynchronization with #    its master, the content of the whole database is removed in order to #    load the RDB file just transferred. # # In all the above cases the default is to delete objects in a blocking way, # like if DEL was called. However you can configure each case specifically # in order to instead release memory in a non-blocking way like if UNLINK # was called, using the following configuration directives.

翻译上面的话就是:

Redis有两个删除keys的原语。一个是DEL并且它是一个阻塞的删除对象的操作。意味着server会停止处理新的command以便以同步的方式回收与对象关联的所有内存。如果被删除的key关联的是一个小对象,那么执行DEL命令所需要的时间非常短,与Redis中其它O(1)O(log_N)的命令时间开销几乎一样。然鹅,如果key与包含了数百万个元素的大对象相关联,那么服务器为了完成删除命令会阻塞很长时间(甚至几秒钟)。

出于以上原因,Redis提供了非阻塞的删除原语,例如UNLINK(非阻塞式的DEL)和FLUSHALLFLUSHDB命令的ASYNC选项,以便在后台回收内存。这些命令会在常量(固定的)时间内执行。另外一个线程会在后台尽可能快的以渐进式的方式释放对象。

使用DEL,UNLINK以及FLUSHALLFLUSHDBASYNC选项是由用户来控制的。这应该由应用程序的设计来决定使用其中的哪一个。 然鹅,作为其它操作的副作用,Redis server有时不得不去删除keys或者刷新整个数据库。具体来说,Redis在以下情况下会独立于用户调用而删除对象:

1) 由于maxmemory 和maxmemory policy的设置,为了在不超出指定的内存限制而为新对象腾出空间而逐出旧对象;

2) 因为过期:当一个key设置了过期时间且必须从内存中删除时;

3) 由于在已经存在的key上存储对象的命令的副作用。例如,RENAME命令可能会删除旧的key的内容,当该key的内容被其它内容代替时。类似的,SUNIONSTORE或者带STORE选项的SORT命令可能会删除已经存在的keys。SET命令会删除指定键的任何旧内容,以便使用指定字符串替换。

4)在复制过程中,当副库与主库执行完全重新同步时,整个数据库的内容将被删除,以便加载刚刚传输的RDB文件。

在上述所有情况下,默认情况是以阻塞方式删除对象,就像调用DEL一样。但是,你可以使用以下配置指令专门配置每种情况,以非阻塞的方式释放内存,就像调用UNLINK一样。

相关的配置:

# 内存达到设置的maxmemory时,是否使用惰性删除,对应上面 1) lazyfree-lazy-eviction no # 过期keys是否惰性删除,对应上面 2) lazyfree-lazy-expire no # 内部删除选项,对应上面选项 3)的情况是否惰性删除 lazyfree-lazy-server-del no # slave接收完RDB文件后清空数据是否是惰性的,对应上面情况 4) replica-lazy-flush no  # It is also possible, for the case when to replace the user code DEL calls # with UNLINK calls is not easy, to modify the default behavior of the DEL # command to act exactly like UNLINK, using the following configuration # directive:  # 是否将DEL调用替换为UNLINK,注释里写的从user code里替换DEL调用为UNLINK调用可能并不是一件 # 容易的事,因此可以使用以下选项,将DEL的行为替换为UNLINK lazyfree-lazy-user-del no

THREADED I/O

Redis大体上是单线程的,但是也有一些场景使用额外的线程去做的,比如UNLINKslow I/O accesses

现在还可以在不同的I/O线程中处理Redis客户端socket读写。(只是网络IO这块儿成了多线程,执行命令的那个家伙,还是单线程!)特别是因为写操作很慢,通常Redis的用户使用pipeline来提升每个核心下的Redis性能,并且运行多个Redis实例来实现扩展。使用多线程I/O,不需要使用pipeline和实例切分,就可以轻松的提升两倍的性能。

默认情况下,多线程是禁用的,我们建议只在至少有4个或更多内核的机器中启用多线程,至少保留一个备用内核。使用超过8个线程不太可能有多大帮助。我们还建议仅当您确实存在性能问题时才使用线程化I/O,因为除非Redis实例能够占用相当大的CPU时间,否则使用此功能没有意义。

redis.conf相关配置翻译

  • 配置IO线程数

如果你的机器是4核的,可以配置2个或者3个线程。如果你有8核,可以配置6个线程。通过下面这个参数来配置线程数:

io-threads 4

io-threads设置为1将只使用主线程。当启用I/O线程时,我们只使用多线程进行写操作,也就是说,执行write(2)系统调用并将Client缓冲区传输到套接字。但是,也可以通过将以下配置指令设置为yes来启用读取线程和协议解析:

io-threads-do-reads no

通常情况下多线程的read并没有什么卵用。

需要注意的两点是:

  • 这两个配置不能运行时通过CONFIG SET来改变,而且开启SSL功能时,多线程I/O同样不会生效。
  • 如果你想用benchmark脚本测试多线程下的性能提升,确保benchmark也是多线程模式,在后面加上--threads参数,来匹配Redis的线程数。不然看不到什么性能提升。

KERNEL OOMCONTROL 设置OOM时终止哪些进程

在Linux上,可以提示内核OOM killer在OOM发生时应该首先终止哪些进程。

启用此功能可使Redis根据其角色主动控制其所有进程的oom_score_adj值。默认分数将尝试在所有其他进程之前杀死背景子进程,并在主进程之前杀死从节点进程。

Redis支持三个选项:

  • no:对oom-score-adj不做任何修改(默认值)
  • yesrelative的别名
  • absoluteoom-score-adj-values配置的值将写入内核
  • relative:当服务器启动时,使用相对于oom_score_adj初始值的值,然后将其限制在-1000到1000的范围内。因为初始值通常为0,所以它们通常与绝对值匹配。

oom-score-adj no

当使用oom-score-adj选项(不为no)时,该指令控制用于主、从和后台子进程的特定值。数值范围为-2000到2000(越高意味着死亡的可能性越大)。

非特权进程(不是根进程,也没有CAP_SYS_RESOURCE功能)可以自由地增加它们的价值,但不能将其降低到初始设置以下。这意味着将oom score adj设置为“相对”,并将oom score adj值设置为正值将始终成功

# 分别控制主进程、从进程和后台子进程的值 oom-score-adj-values 0 200 800

APPEND ONLY MODE AOF持久化配置

  • 开始/关闭aof

appendonly no
  • aof文件名称

appendfilename "appendonly.aof"
  • 执行fsync()系统调用刷盘的频率

appendfsync everysec
  • everysec:每秒执行,可能会丢失最后一秒的数据。
  • always:每次写操作执行,数据最安全,但是对性能有影响。
  • no:不强制刷盘,由内核决定什么时候刷盘,数据最不安全,性能最好。
  • 当有后台保存任务时,关闭appendfsync

当后台在执行save任务或者aof文件的rewrite时,会对磁盘造成大量I/O操作,在某些Linux配置中,Redis可能会在fsync()系统调用上阻塞很长时间。需要注意的是,目前还没有很好的解决方法,因为即使是在不同的线程中执行fsync()调用也会阻塞write(2)调用。

为了缓解上述问题,可以使用以下选项,防止在进行BGSAVE或者BGREWRITEAOF时在主进程中调用fsync()

这意味这如果有其它子进程在执行saving任务时,Redis的行为相当于配置了appendfsync none。实际上,这意味着在最坏的情况下(使用Linux默认设置),可能丢失最多30s的日志。

如果您有延迟的问题(性能问题),将此设置为“yes”,否则,设置为“no”。从持久化的角度看,这是最安全的选择。

no-appendfsync-on-rewrite no
  • 自动重写aof文件

在AOF文件大小增长到了指定的百分比(相对于上次AOF文件大小的增长量)或者最小体积时,自动调用BGREWRITEAOF命令重写AOF文件。

auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb
  • AOF文件末尾被截断

在Redis启动过程的最后,当AOF数据加载回内存时,可能会发现AOF文件被截断。当运行Redis的系统崩溃时,可能会发生这种情况,尤其是在安装ext4文件系统时,没有data=ordered选项(然而,当Redis本身崩溃或中止,但操作系统仍然正常工作时,这种情况不会发生)。

Redis可以在出现这种情况时带着错误退出,也可以加载尽可能多的数据(现在是默认值),并在发现AOF文件在最后被截断时启动。以下选项控制此行为。

如果aof load truncated设置为yes,则会加载一个被截断的aof文件,Redis服务器开始发送日志,通知用户该事件。否则,如果该选项设置为“no”,服务器将因错误而中止并拒绝启动。当选项设置为“no”时,用户需要使用“redis-check-aof”实用程序修复AOF文件,然后才能重新启动服务器。

请注意,如果在中间发现AOF文件已损坏,服务器仍将退出并出现错误。此选项仅适用于Redis尝试从AOF文件读取更多数据,但找不到足够字节的情况。

aof-load-truncated yes
  • 开启混合持久化

当重写AOF文件时,Redis能够在AOF文件中使用RDB前导,以更快地重写和恢复。启用此选项后,重写的AOF文件由两个不同的节组成:

[RDB file][AOF tail]

加载时,Redis识别出AOF文件以“Redis”字符串开头,并加载带前缀的RDB文件,然后继续加载AOF尾部。

aof-use-rdb-preamble yes

LUA SCRIPTING-LUA脚本相关

  • 配置LUA脚本最大执行时长

单位毫秒,默认5s。当脚本运行时间超过限制后,Redis将开始接受其他命令当不会执行,而是会返回BUSY错误。

lua-time-limit 5000

REDIS CLUSTER 集群配置

  • 允许集群模式 只有以集群模式启动的Redis实例才能作为集群的节点

cluster-enabled yes
  • 集群配置文件

由Redis创建维护,不需要我们关心内容,只需要配好位置即可

cluster-config-file nodes-6379.conf
  • 节点超时时间

集群模式下,master节点之间会互相发送PING心跳来检测集群master节点的存活状态,超过配置的时间没有得到响应,则认为该master节点主观宕机。

cluster-node-timeout 15000
  • 设置副本有效因子

副本数据太老旧就不会被选为故障转移的启动者。

副本没有简单的方法可以准确测量其“数据年龄”,因此需要执行以下两项检查:

  • 如果有多个复制副本能够进行故障切换,则它们会交换消息,以便尝试为具有最佳复制偏移量的副本提供优势(已经从master接收了尽可能多的数据的节点更可能成为新master)。复制副本将尝试按偏移量获取其排名,并在故障切换开始时应用与其排名成比例的延迟(排名越靠前的越早开始故障迁移)。
  • 每个副本都会计算最后一次与其主副本交互的时间。这可以是最后一次收到的PING或命令(如果主机仍处于“已连接”状态),也可以是与主机断开连接后经过的时间(如果复制链路当前已关闭)。如果最后一次交互太旧,复制副本根本不会尝试故障切换。

第二点的值可以由用户调整。特别的,如果自上次与master交互以来,经过的时间大于(node-timeout * cluster-replica-validity-factor) + repl-ping-replica-period,则不会成为新的master。

较大的cluster-replica-validity-factor可能允许数据太旧的副本故障切换到主副本,而太小的值可能会阻止群集选择副本。

为了获得最大可用性,可以将cluster-replica-validity-factor设置为0,这意味着,无论副本上次与主机交互的时间是什么,副本都将始终尝试故障切换主机。(不过,他们总是会尝试应用与其偏移等级成比例的延迟)。

0是唯一能够保证当所有分区恢复时,集群始终能够继续的值(保证集群的可用性)。

cluster-replica-validity-factor 10
  • 设置master故障转移时保留的最少副本数

群集某个master的slave可以迁移到孤立的master,即没有工作slave的master。这提高了集群抵御故障的能力,因为如果孤立master没有工作slave,则在发生故障时无法对其进行故障转移。

只有在slave的旧master的其他工作slave的数量至少为给定数量时,slave才会迁移到孤立的master。这个数字就是cluster-migration-barrier。值为1意味着slave只有在其master至少有一个其他工作的slave时才会迁移,以此类推。它通常反映集群中每个主机所需的副本数量。

默认值为1(仅当副本的主副本至少保留一个副本时,副本才会迁移)。要禁用迁移,只需将其设置为非常大的值。可以设置值0,但仅对调试有用,并且在生产中很危险。

cluster-migration-barrier 1
  • 哈希槽全覆盖检查

默认情况下,如果Redis群集节点检测到至少有一个未覆盖的哈希槽(没有可用的节点为其提供服务),它们将停止接受查询。这样,如果集群部分关闭(例如,一系列哈希槽不再被覆盖),那么所有集群最终都将不可用。一旦所有插槽再次被覆盖,它就会自动返回可用状态。

然而,有时您希望正在工作的集群的子集继续接受对仍然覆盖的密钥空间部分的查询。为此,只需将cluster-require-full-coverage选项设置为no。

cluster-require-full-coverage yes
  • 是否自动故障转移

当设置为“yes”时,此选项可防止副本在主机故障期间尝试故障切换master。但是,如果被迫这样做,主机仍然可以执行手动故障切换。

这在不同的场景中很有用,尤其是在多个数据中心运营的情况下,如果不在DC(DataCenter?)完全故障的情况下,我们希望其中一方永远不会升级为master。

cluster-replica-no-failover no
  • 集群失败时允许节点处理读请求

此选项设置为“yes”时,允许节点在集群处于关闭状态时提供读取流量,只要它认为自己拥有这些插槽。

这对两种情况很有用。第一种情况适用于在节点故障或网络分区期间应用程序不需要数据一致性的情况。其中一个例子是缓存,只要节点拥有它应该能够为其提供服务的数据。

第二个用例适用于不满足三个分片集群,但又希望启用群集模式并在以后扩展的配置。不设置该选项而使用1或2分片配置中的master中断服务会导致整个集群的读/写服务中断。如果设置此选项,则只会发生写中断。如果达不到master的quorum(客观宕机)数值,插槽所有权将不会自动更改。

cluster-allow-reads-when-down no

CLUSTER DOCKER/NAT support

  • 声明访问IP、port

以下三项设置对NAT网络或者Docker的支持。

因为NAT端口映射的IP地址在局域网之外是没办法访问到的,因此在这种情况下,要声明集群的公网网关(NAT映射)/宿主机的IP地址,以便局域网之外也可以访问到NAT映射后的/Docker容器内的Redis集群中的每个实例。

cluster-announce-bus-port集群节点之间进行数据交换的额外端口。

cluster-announce-ip cluster-announce-port cluster-announce-bus-port

SLOW LOG 慢日志

Redis的慢查询日志功能用于记录执行时间超过给定时长的命令请求,用户可以通过这个功能产生的日志来监视和优化查询速度

  • 设置慢日志记录阈值

超过这个值的命令会被记录到慢日志中,默认10000微秒。

slowlog-log-slower-than <microseconds>
  • 日志文件大小

可以通过这个配置改变慢日志文件的最大长度,超过这个长度后最旧的记录会被删除。默认128。

slowlog-max-len 128

LATENCY MONITOR 延迟监控

Redis延迟监控子系统在运行时对不同的操作进行采样,以收集与Redis实例可能的延迟源相关的数据。

通过延迟命令,用户可以打印图表和获取报告。

系统仅记录在等于或大于通过延迟监视器阈值配置指令指定的毫秒数的时间内执行的操作。当其值设置为零时,延迟监视器将关闭。

默认情况下,延迟监控是禁用的,因为如果没有延迟问题,通常不需要延迟监控,而且收集数据会对性能产生影响,虽然影响很小,但可以在大负载下进行测量。如果需要,可以在运行时使用命令CONFIG SET latency-monitor-threshold <millists>轻松启用延迟监控。

  • 设置延迟阈值

latency-monitor-threshold 0

EVENT NOTIFICATION 事件通知

实时的监控keys和values的更改。

Redis可以将key space中发生的事件通过发布/订阅通知客户端。

例如,如果notify-keyspace-events已经启用,并且客户端对数据库0中存储的键foo执行DEL操作,则将通过Pub/Sub发布两条消息:

  • PUBLISH keyspace@0:foo del
  • PUBLISH keyevent@0:del foo

可以在一组类中选择Redis将通知的事件。每个类由一个字符标识:

  • K Keyspace事件,通过__keyspace@<db>__前缀发布。
  • E Keyevent事件,通过__keyevent@<db>__ 前缀发布。
  • g 通用命令(非特定类型),例如DELEXPIRERENAME
  • $ String相关命令
  • l List相关命令
  • s Set相关命令
  • h Hash相关命令
  • z Sorted Set(ZSet)相关命令
  • x 过期事件(每次key过期时生成的事件)
  • e 回收事件(达到maxmemory时回收key的事件)
  • t Stream相关命令
  • m Key-miss events,访问的key不存在时触发
  • Ag$lshzxet的别名,因此AKE代表了除了m之外的所有事件。

默认情况下所有事件通知都是关闭的,因为大多数用户不需要这些特性。且需要至少有K或者E时事件通知才会生效。

notify-keyspace-events ""

GOPHER SERVER Gopher协议

开启Gopher协议,大体意思就是说这是一个90年代很流行的Web协议,客户端和服务端实现都非常简单,Redis服务器只需要100行代码就能支持它。一些人想要一个更简单的互联网,另一些人认为主流互联网变得过于受控,为想要一点新鲜空气的人创造一个替代空间是很酷的。总之,为了庆祝🎉Redis诞生10周年,Redis的作者将这个协议支持作为礼物🎁送给了Redis。

# Redis contains an implementation of the Gopher protocol, as specified in # the RFC 1436 (https://www.ietf.org/rfc/rfc1436.txt). # # The Gopher protocol was very popular in the late '90s. It is an alternative # to the web, and the implementation both server and client side is so simple # that the Redis server has just 100 lines of code in order to implement this # support. # # What do you do with Gopher nowadays? Well Gopher never *really* died, and # lately there is a movement in order for the Gopher more hierarchical content # composed of just plain text documents to be resurrected. Some want a simpler # internet, others believe that the mainstream internet became too much # controlled, and it's cool to create an alternative space for people that # want a bit of fresh air. # # Anyway for the 10nth birthday of the Redis, we gave it the Gopher protocol # as a gift. # # --- HOW IT WORKS? --- # # The Redis Gopher support uses the inline protocol of Redis, and specifically # two kind of inline requests that were anyway illegal: an empty request # or any request that starts with "/" (there are no Redis commands starting # with such a slash). Normal RESP2/RESP3 requests are completely out of the # path of the Gopher protocol implementation and are served as usual as well. # # If you open a connection to Redis when Gopher is enabled and send it # a string like "/foo", if there is a key named "/foo" it is served via the # Gopher protocol. # # In order to create a real Gopher "hole" (the name of a Gopher site in Gopher # talking), you likely need a script like the following: # #   https://github.com/antirez/gopher2redis # # --- SECURITY WARNING --- # # If you plan to put Redis on the internet in a publicly accessible address # to server Gopher pages MAKE SURE TO SET A PASSWORD to the instance. # Once a password is set: # #   1. The Gopher server (when enabled, not by default) will still serve #      content via Gopher. #   2. However other commands cannot be called before the client will #      authenticate. # # So use the 'requirepass' option to protect your instance. # # Note that Gopher is not currently supported when 'io-threads-do-reads' # is enabled. # # To enable Gopher support, uncomment the following line and set the option # from no (the default) to yes. # # gopher-enabled no

ADVANCED CONFIG 高级设置

  • 设置Hash底层数据结构由ziplist转为hashtable的阈值

当Hash类型的keys只包含了少量的实体并且实体的大小没有超过给定的阈值时,Hash底层会使用ziplist来存储数据而不是使用hashtable以节省空间。

hash-max-ziplist-entries 512 hash-max-ziplist-value 64

当一个Hash类型的key包含的实体数量超过了hash-max-ziplist-entries的值或者某个实体的大小超过了hash-max-ziplist-value的值(单位字节),那么底层编码就会升级成hashtable。

  • 设置List底层数据结构quicklist中单个ziplist的大小

Redis中List数据结构的底层使用的是quicklist的数据结构,本质上是ziplist作为节点串起来的linkedlist。可以通过该项设置来改变每个ziplist的最大大小(ziplist中的fill属性,超过这个值就会开启一个新的ziplist)。总共提供了-5到-1五个选项:

  • -5:最大大小为64Kb,不推荐作为正常情况下的负载
  • -4:最大大小为32Kb,不推荐
  • -3:最大大小为16Kb,大概可能估计好像不是很推荐(原话:probably not recommended)
  • `-2:最大大小为8Kb,good(原话)
  • -1:最大大小为4Kb,good(原话)

默认值是-2

list-max-ziplist-size -2
  • 设置压缩List中ziplist为quicklistLZF结构

大神们觉着ziplist不够zip啊,所以再压缩一下吧。实际上是考虑了这样的场景,即List数据结构两端访问频率比较高,但是中间部分访问频率不是很高的情况,那么使用ziplist存放这部分结构就有点浪费,是不是可以把这部分结构进行压缩(LZF算法压缩)呢?这个选项就是进行这个操作的。有下面几个值:

  • 0:代表不压缩,默认值
  • 1:两端各一个节点不压缩
  • 2:两端各两个节点不压缩
  • ...:依次类推。。。

list-compress-depth 0
  • 设置Set底层intset最大entities个数/intset升级为hashtable的阈值

Set数据结构只有在一种情况下会使用intset来存储:set由能转成10进制且数值在64bit有符号整形数值组成时。下面的配置设置了intset能存储的最大entities数量,超过这个数量会转成hashtable存储。默认512个。

set-max-intset-entries 512

设置ZSet底层数据结构由ziplist转为skiplist的阈值

当超过下面设置的阈值时,ZSet底层存储结构会由ziplist转为skiplist。

zset-max-ziplist-entries 128  zset-max-ziplist-value 64
  • 设置HyperLogLog底层稀疏矩阵转为稠密矩阵的阈值

HyperLogLog当在计数比较小时会使用稀疏矩阵来存储,只有当计数达到阈值时,才会转为稠密矩阵。

超过16000的值是完全无用的,因为这种情况下使用稠密矩阵更加节省内存。

建议的值是3000左右,以便在不降低太多PFADD速度的情况下获取空间有效编码的好处,稀疏编码的PFADD的时间复杂度为O(N)。当不考虑CPU占用时而考虑内存占用时,这个值可以升到10000左右。

hll-sparse-max-bytes 3000
  • 自定义Stream宏节点大小

可以通过stream-node-max-bytes选项修改Stream中每个宏节点能够占用的最大内存,或者通过stream-node-max-entries参数指定每个宏节点中可存储条目的最大数量。

stream-node-max-bytes 4096 stream-node-max-entries 100
  • 开启Rehash

Redis将在每100毫秒时使用1毫秒的CPU时间来对redis的hash表进行重新hash,可以降低内存的使用。当你的使用场景中,有非常严格的实时性需要,不能够接受Redis时不时的对请求有2毫秒的延迟的话,把这项配置为no。如果没有这么严格的实时性要求,可以设置为yes,以便能够尽可能快的释放内存。

activerehashing yes
  • 客户端输出缓存控制

客户端输出缓冲区限制可用于强制断开由于某种原因从服务器读取数据速度不够快的客户端(一个常见原因是发布/订阅客户端不能像发布服务器生成消息那样快地使用消息)。

对于三种不同类型的客户端,克制设置不同的限制:

  • normal:一般客户端包含监控客户端
  • replica:副本客户端(slave)
  • pubsub:客户端至少订阅了一个pubsub通道或模式。

每个客户端输出缓冲区限制指令语法:

client-output-buffer-limit <class> <hard limit> <soft limit> <soft seconds>

一旦达到<hard limit>限制或者达到<soft limit>之后又过了<soft seconds>秒,那么客户端会立即被断开连接。

例如,如果<hard limit>为32兆字节,<soft limit><soft seconds>分别为16兆字节,10秒,则如果输出缓冲区的大小达到32兆字节,客户端将立即断开连接,但如果客户端达到16兆字节并连续超过限制10秒,客户端也将断开连接。

默认情况下,普通客户端不受限制,因为它们不会在没有请求(以推送方式)的情况下接收数据,而是在请求之后接收数据,因此只有异步客户端可能会创建一个场景,其中请求数据的速度比读取数据的速度快。

相反,pubsub和副本客户端有一个默认限制,因为订阅者和副本以推送方式接收数据。

硬限制或软限制都可以通过将其设置为零来禁用。

client-output-buffer-limit normal 0 0 0 client-output-buffer-limit replica 256mb 64mb 60 client-output-buffer-limit pubsub 32mb 8mb 60
  • 配置客户端query buffer大小

客户端query buffer大小不能超过该项配置的值。

每个Client都有一个query buffer(查询缓存区或输入缓存区), 它用于保存客户端的发送命令,redis server从query buffer获取命令并执行。如果程序的Key设计不合理,客户端使用大量的query buffer,这会导致redis server比较危险,很容易达到maxmeory限制,导致缓存数据被清空、数据无法写入和oom.

client-query-buffer-limit 1gb
  • Redis协议批量请求单个字符串限制

默认512mb,可以通过下面选项修改

proto-max-bulk-len 512mb
  • Redis执行任务频率

Redis调用一个内部函数来执行许多后台任务,比如在超时时关闭客户端连接,清楚从未被请求过的过期key…

并非所有任务都已相同的频率执行,但Redis根据指定的hz值检查要执行的任务。

默认情况下,hz的值为10.提高这个值会让Redis在空闲的时候占用更多的CPU,但同时也会让Redis在有很多keys同时过期时响应更快并且可以更精确的处理超时。

范围在1到500之间,但是超过100通常不是一个好主意。大多数用户应该使用缺省值10,只有在需要非常低延迟的环境中才应该将值提高到100。

hz 10
  • 动态hz配置

根据客户端连接的数量动态的调整hz的值,当有更多的客户端连接时,会临时以hz设置基准提高该hz的值。默认开启。

dynamic-hz yes
  • AOF重写时执行fsync刷盘策略

当一个子系统重写AOF文件时,如果启用了以下选项,则该文件将每生成32MB的数据进行fsync同步。这对于以更增量的方式将文件提交到磁盘并避免较大的延迟峰值非常有用。

aof-rewrite-incremental-fsync yes
  • 保存RDB文件时执行fsync刷盘策略

当redis保存RDB文件时,如果启用以下选项,则每生成32 MB的数据,文件就会同步一次。这对于以更增量的方式将文件提交到磁盘并避免较大的延迟峰值非常有用。

rdb-save-incremental-fsync yes
  • LFU设置

设置Redis LFU相关。Redis LFU淘汰策略实现有两个可调整参数:lfu-log-factorlfu-decay-time

代码语言:javascript

复制

lfu-log-factor 10 lfu-decay-time 1

ACTIVE DEFRAGMENTATION 碎片整理

主动(在线)碎片整理允许Redis服务器压缩内存中数据的少量分配和释放之间的空间(内存碎片),从而回收内存。

碎片化是每个分配器(幸运的是,Jemalloc比较少发生这种情况)和某些工作负载都会发生的自然过程。通常需要重启服务器以降低碎片,或者至少清除所有数据并重新创建。然而,多亏了Oran Agra为Redis 4.0实现的这一功能,这个过程可以在服务器运行时以“hot”的方式在运行时发生(类似热部署的意思,不需要停止服务)。

基本上,当碎片超过某个级别(参见下面的配置选项)时,Redis将通过利用特定的Jemalloc功能(以了解分配是否导致碎片并将其分配到更好的位置)开始在连续内存区域中创建值的新副本,同时释放数据的旧副本。对所有键递增地重复该过程将导致碎片降至正常值。

需要了解的重要事项:

1.默认情况下,此功能被禁用,并且仅当您编译Redis以使用我们随Redis源代码提供的Jemalloc副本时,此功能才有效。这是Linux版本的默认设置。

2.如果没有碎片问题,则无需启用此功能。

3.一旦遇到内存碎片,可以在需要时使用命令CONFIG SET activedefrag yes启用此功能。

配置参数能够微调碎片整理过程的行为。如果你不确定它们是什么意思,最好不要改变默认值。

开启活动碎片整理

activedefrag no

启动活动碎片整理的最小内存碎片阈值

active-defrag-ignore-bytes 100mb

启动活动碎片整理的最小内存碎片百分比

active-defrag-threshold-lower 10
  • 尝试释放的最大百分比

active-defrag-threshold-upper 100
  • 最少CPU使用率

active-defrag-cycle-min 1
  • 最大CPU使用率

active-defrag-cycle-max 25
  • 最大扫描量

# Maximum number of set/hash/zset/list fields that will be processed from # the main dictionary scan active-defrag-max-scan-fields 1000
  • 使用后台线程
jemalloc-bg-thread yes

贴一份完整的配置文件

#redis.conf # Redis configuration file example. # ./redis-server /path/to/redis.conf ################################## INCLUDES  ################################### #这在你有标准配置模板但是每个 redis 服务器又需要个性设置的时候很有用。 # include /path/to/local.conf # include /path/to/other.conf ################################ GENERAL ##################################### #是否在后台执行,yes:后台运行;no:不是后台运行(老版本默认) daemonize yes #3.2 里的参数,是否开启保护模式,默认开启。要是配置里没有指定 bind 和密码。开启该参数后,redis 只会本地进行访问,拒绝外部访问。要是开启了密码 和 bind,可以开启。否 则最好关闭,设置为 no。 protected-mode yes #redis 的进程文件 pidfile /var/run/redis/redis-server.pid #redis 监听的端口号。 port 6379 #此参数确定了 TCP 连接中已完成队列(完成三次握手之后)的长度, 当然此值必须不大于 Linux 系统定 义的/proc/sys/net/core/somaxconn 值,默认是 511,而 Linux 的默认参数值是 128。当系统并 发量大并且客户端速度缓慢的时候,可以将这二个参数一起参考设定。该内核参数默认值一般是 128,对 于负载很大的服务程序来说大大的不够。一般会将它修改为 2048 或者更大。在/etc/sysctl.conf 添加:net.core.somaxconn = 2048,然后在终端中执行 sysctl -p。 tcp-backlog 511 #指定 redis 只接收来自于该 IP 地址的请求,如果不进行设置,那么将处理所有请求 #bind 127.0.0.1 #配置 unix socket 来让 redis 支持监听本地连接。 # unixsocket /var/run/redis/redis.sock #配置 unix socket 使用文件的权限 # unixsocketperm 700 # 此参数为设置客户端空闲超过 timeout,服务端会断开连接,为 0 则服务端不会主动断开连接,不能 小于 0。 timeout 0 #tcp keepalive 参数。如果设置不为 0,就使用配置 tcp 的 SO_KEEPALIVE 值,使用 keepalive 有 两个好处:检测挂掉的对端。降低中间设备出问题而导致网络看似连接却已经与对端端口的问题。在 Linux内核中,设置了 keepalive,redis 会定时给对端发送 ack。检测到对端关闭需要两倍的设置值。 tcp-keepalive 0 #指定了服务端日志的级别。级别包括:debug(很多信息,方便开发、测试),verbose(许多有用的 信息,但是没有 debug 级别信息多),notice(适当的日志级别,适合生产环境),warn(只有非常重 要的信息) loglevel notice #指定了记录日志的文件。空字符串的话,日志会打印到标准输出设备。后台运行的 redis 标准输出是 /dev/null。 logfile /var/log/redis/redis-server.log #是否打开记录 syslog 功能 # syslog-enabled no #syslog 的标识符。 # syslog-ident redis #日志的来源、设备 # syslog-facility local0 #数据库的数量,默认使用的数据库是 DB 0。可以通过”SELECT “命令选择一个 db databases 16 ################################ SNAPSHOTTING ################################ # 快照配置 # 注释掉“save”这一行配置项就可以让保存数据库功能失效 # 设置 sedis 进行数据库镜像的频率。 # 900 秒(15 分钟)内至少 1 个 key 值改变(则进行数据库保存--持久化) # 300 秒(5 分钟)内至少 10 个 key 值改变(则进行数据库保存--持久化) # 60 秒(1 分钟)内至少 10000 个 key 值改变(则进行数据库保存--持久化) save 900 1 save 300 10 save 60 10000 #当 RDB 持久化出现错误后,是否依然进行继续进行工作,yes:不能进行工作,no:可以继续进行工作, 可以通过 info 中的 rdb_last_bgsave_status 了解 RDB 持久化是否有错误 stop-writes-on-bgsave-error yes #使用压缩 rdb 文件,rdb 文件压缩使用 LZF 压缩算法,yes:压缩,但是需要一些 cpu 的消耗。no:不 压缩,需要更多的磁盘空间 rdbcompression yes #是否校验 rdb 文件。从 rdb 格式的第五个版本开始,在 rdb 文件的末尾会带上 CRC64 的校验和。这跟 有利于文件的容错性,但是在保存 rdb 文件的时候,会有大概 10%的性能损耗,所以如果你追求高性能, 可以关闭该配置。 rdbchecksum yes #rdb 文件的名称 dbfilename dump.rdb #数据目录,数据库的写入会在这个目录。rdb、aof 文件也会写在这个目录 dir /root/temp ################################# REPLICATION  ################################# #复制选项,slave 复制对应的 master# slaveof <masterip> <masterport> #如果 master 设置了 requirepass,那么 slave 要连上 master,需要有 master 的密码才行。 masterauth 就是用来配置 master 的密码,这样可以在连上 master 后进行认证。 # masterauth <master-password#当从库同主机失去连接或者复制正在进行,从机库有两种运行方式:1) 如果 slave-serve-stale-data 设置为 yes(默认设置),从库会继续响应客户端的请求。2) 如果 slave-serve-stale-data 设置为 no,除去 INFO 和 SLAVOF 命令之外的任何请求都会返回一个错 误”SYNC with master in progress”。 slave-serve-stale-data ye#作为从服务器,默认情况下是只读的(yes),可以修改成 NO,用于写(不建议)。 slave-read-only yes #是否使用 socket 方式复制数据。目前 redis 复制提供两种方式,disk 和 socket。如果新的 slave 连上来或者重连的 slave 无法部分同步,就会执行全量同步,master 会生成 rdb 文件。有 2 种方式: disk 方式是 master 创建一个新的进程把 rdb 文件保存到磁盘,再把磁盘上的 rdb 文件传递给 slave。 socket 是 master 创建一个新的进程,直接把 rdb 文件以 socket 的方式发给 slave。disk 方式的时 候,当一个 rdb 保存的过程中,多个 slave 都能共享这个 rdb 文件。socket 的方式就的一个个 slave 顺序复制。在磁盘速度缓慢,网速快的情况下推荐用 socket 方式。 repl-diskless-sync no #diskless 复制的延迟时间,防止设置为 0。一旦复制开始,节点不会再接收新 slave 的复制请求直到 下一个 rdb 传输。所以最好等待一段时间,等更多的 slave 连上来。 repl-diskless-sync-delay 5 #slave 根据指定的时间间隔向服务器发送 ping 请求。时间间隔可以通过 repl_ping_slave_period  来设置,默认 10 秒。 # repl-ping-slave-period 10 #复制连接超时时间。master 和 slave 都有超时时间的设置。master 检测到 slave 上次发送的时间超 过 repl-timeout,即认为 slave 离线,清除该 slave 信息。slave 检测到上次和 master 交互的时 间超过 repl-timeout,则认为 master 离线。需要注意的是 repl-timeout 需要设置一个比 repl-ping-slave-period 更大的值,不然会经常检测到超时。 # repl-timeout 60 #是否禁止复制 tcp 链接的 tcp nodelay 参数,可传递 yes 或者 no。默认是 no,即使用 tcp nodelay。 如果 master 设置了 yes 来禁止 tcp nodelay 设置,在把数据复制给 slave 的时候,会减少包的数量 和更小的网络带宽。但是这也可能带来数据的延迟。默认我们推荐更小的延迟,但是在数据量传输很大的 场景下,建议选择 yes。 repl-disable-tcp-nodelay no #复制缓冲区大小,这是一个环形复制缓冲区,用来保存最新复制的命令。这样在 slave 离线的时候,不 需要完全复制 master 的数据,如果可以执行部分同步,只需要把缓冲区的部分数据复制给 slave,就能 恢复正常复制状态。缓冲区的大小越大,slave 离线的时间可以更长,复制缓冲区只有在有 slave 连接 的时候才分配内存。没有 slave 的一段时间,内存会被释放出来,默认 1m。 # repl-backlog-size 5mb #master 没有 slave 一段时间会释放复制缓冲区的内存,repl-backlog-ttl 用来设置该时间长度。 单位为秒。 # repl-backlog-ttl 3600 #当 master 不可用,Sentinel 会根据 slave 的优先级选举一个 master。最低的优先级的 slave,当 选 master。而配置成 0,永远不会被选举。slave-priority 100 #redis 提供了可以让 master 停止写入的方式,如果配置了 min-slaves-to-write,健康的 slave 的个数小于 N,mater 就禁止写入。master 最少得有多少个健康的 slave 存活才能执行写命令。这个置虽然不能保证 N 个 slave 都一定能接收到 master 的写操作,但是能避免没有足够健康的 slave 的候,master 不能写入来避免数据丢失。设置为 0 是关闭该功能。 # min-slaves-to-write 3 #延迟小于 min-slaves-max-lag 秒的 slave 才认为是健康的 slave。 # min-slaves-max-lag 10 # 设置 1 或另一个设置为 0 禁用这个特性。 # Setting one or the other to 0 disables the feature. # By default min-slaves-to-write is set to 0 (feature disabled) and # min-slaves-max-lag is set to 10. ################################## SECURITY  ################################### #requirepass 配置可以让用户使用 AUTH 命令来认证密码,才能使用其他命令。这让 redis 可以使用 在不受信任的网络中。为了保持向后的兼容性,可以注释该命令,因为大部分用户也不需要认证。使用 requirepass 的时候需要注意,因为 redis 太快了,每秒可以认证 15w 次密码,简单的密码很容易被 攻破,所以最好使用一个更复杂的密码。 # requirepass foobared #把危险的命令给修改成其他名称。比如 CONFIG 命令可以重命名为一个很难被猜到的命令,这样用户不 能使用,而内部工具还能接着使用。 # rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52 #设置成一个空的值,可以禁止一个命# rename-command CONFIG "" ################################### LIMITS  #################################### # 设置能连上 redis 的最大客户端连接数量。默认是 10000 个客户端连接。由于 redis 不区分连接是客 户端连接还是内部打开文件或者和 slave 连接等,所以 maxclients 最小建议设置到 32。如果超过了 maxclients,redis 会给新的连接发送’max number of clients reached’,并关闭连接。 # maxclients 10000 #redis 配置的最大内存容量。当内存满了,需要配合 maxmemory-policy 策略进行处理。注意 slave 的输出缓冲区是不计算在 maxmemory 内的。所以为了防止主机内存使用完,建议设置的 maxmemory 要更小一些。 # maxmemory <bytes> #内存容量超过 maxmemory 后的处理策略。 #volatile-lru:利用 LRU 算法移除设置过过期时间的 key。 #volatile-random:随机移除设置过过期时间的 key。 #volatile-ttl:移除即将过期的 key,根据最近过期时间来删除(辅以 TTL) #allkeys-lru:利用 LRU 算法移除任何 key。 #allkeys-random:随机移除任何 key。 #noeviction:不移除任何 key,只是返回一个写错误。 #上面的这些驱逐策略,如果 redis 没有合适的 key 驱逐,对于写命令,还是会返回错误。redis 将不 再接收写请求,只接收 get 请求。写命令包括:set setnx setex append incr decr rpush lpush  rpushx lpushx linsert lset rpoplpush sadd sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby zunionstore zinterstore hset hsetnx hmset hincrby  incrby decrby getset mset msetnx exec sort。 # maxmemory-policy noeviction #lru 检测的样本数。使用 lru 或者 ttl 淘汰算法,从需要淘汰的列表中随机选择 sample 个 key,选出 闲置时间最长的 key 移除。 # maxmemory-samples 5 ############################## APPEND ONLY MODE ############################### #默认 redis 使用的是 rdb 方式持久化,这种方式在许多应用中已经足够用了。但是 redis 如果中途宕 机,会导致可能有几分钟的数据丢失,根据 save 来策略进行持久化,Append Only File 是另一种持 久化方式,可以提供更好的持久化特性。Redis 会把每次写入的数据在接收后都写入 appendonly.aof  文件,每次启动时 Redis 都会先把这个文件的数据读入内存里,先忽略 RDB 文件。 appendonly no #aof 文件名 appendfilename "appendonly.aof" #aof 持久化策略的配置 #no 表示不执行 fsync,由操作系统保证数据同步到磁盘,速度最快。 #always 表示每次写入都执行 fsync,以保证数据同步到磁盘。 #everysec 表示每秒执行一次 fsync,可能会导致丢失这 1s 数据。 appendfsync everysec # 在 aof 重写或者写入 rdb 文件的时候,会执行大量 IO,此时对于 everysec 和 always 的 aof 模式 来说,执行 fsync 会造成阻塞过长时间,no-appendfsync-on-rewrite 字段设置为默认设置为 no。 如果对延迟要求很高的应用,这个字段可以设置为 yes,否则还是设置为 no,这样对持久化特性来说这更安全的选择。设置为 yes 表示 rewrite 期间对新写操作不 fsync,暂时存在内存中,等 rewrite 完成 后再写入,默认为 no,建议 yes。Linux 的默认 fsync 策略是 30 秒。可能丢失 30 秒数据。 no-appendfsync-on-rewrite no #aof 自动重写配置。当目前 aof 文件大小超过上一次重写的 aof 文件大小的百分之多少进行重写,即当 aof 文件增长到一定大小的时候 Redis 能够调用 bgrewriteaof 对日志文件进行重写。当前 AOF 文件大 小是上次日志重写得到 AOF 文件大小的二倍(设置为 100)时,自动启动新的日志重写过程。 auto-aof-rewrite-percentage 100 #设置允许重写的最小 aof 文件大小,避免了达到约定百分比但尺寸仍然很小的情况还要重写 auto-aof-rewrite-min-size 64mb #aof 文件可能在尾部是不完整的,当 redis 启动的时候,aof 文件的数据被载入内存。重启可能发生在 redis 所在的主机操作系统宕机后,尤其在 ext4 文件系统没有加上 data=ordered 选项(redis 宕机 或者异常终止不会造成尾部不完整现象。)出现这种现象,可以选择让 redis 退出,或者导入尽可能多的 数据。如果选择的是 yes,当截断的 aof 文件被导入的时候,会自动发布一个 log 给客户端然后 load。 如果是 no,用户必须手动 redis-check-aof 修复 AOF 文件才可以aof-load-truncated yes ################################ LUA SCRIPTING ############################### # 如果达到最大时间限制(毫秒),redis 会记个 log,然后返回 error。当一个脚本超过了最大时限。 只有 SCRIPT KILL 和 SHUTDOWN NOSAVE 可以用。第一个可以杀没有调 write 命令的东西。要是已经 调用了 write,只能用第二个命令杀。 lua-time-limit 5000 ################################ REDIS CLUSTER ############################### #集群开关,默认是不开启集群模式# cluster-enabled yes #集群配置文件的名称,每个节点都有一个集群相关的配置文件,持久化保存集群的信息。这个文件并不需 要手动配置,这个配置文件有 Redis 生成并更新,每个 Redis 集群节点需要一个单独的配置文件,请确 保与实例运行的系统中配置文件名称不冲突 # cluster-config-file nodes-6379.conf #节点互连超时的阀值。集群节点超时毫秒数 # cluster-node-timeout 15000 #在进行故障转移的时候,全部 slave 都会请求申请为 master,但是有些 slave 可能与 master 断开连 接一段时间了,导致数据过于陈旧,这样的 slave 不应该被提升为 master。该参数就是用来判断 slave 节点与 master 断线的时间是否过长。判断方法是: #比较 slave 断开连接的时间和(node-timeout * slave-validity-factor) +  repl-ping-slave-period #如果节点超时时间为三十秒, 并且 slave-validity-factor 为 10,假设默认的 repl-ping-slave-period 是 10 秒,即如果超过 310 秒 slave 将不会尝试进行故障转移 # cluster-slave-validity-factor 10 #master 的 slave 数量大于该值,slave 才能迁移到其他孤立 master 上,如这个参数若被设为 2,那 么只有当一个主节点拥有 2 个可工作的从节点时,它的一个从节点会尝试迁移。 # cluster-migration-barrier 1 #默认情况下,集群全部的 slot 有节点负责,集群状态才为 ok,才能提供服务。设置为 no,可以在 slot 没有全部分配的时候提供服务。不建议打开该配置,这样会造成分区的时候,小分区的 master 一直在接 受写请求,而造成很长时间数据不一致。 # cluster-require-full-coverage yes ################################## SLOW LOG  ################################### ###slog log 是用来记录 redis 运行中执行比较慢的命令耗时。当命令的执行超过了指定时间,就记录 在 slow log 中,slog log 保存在内存中,所以没有 IO 操作。 #执行时间比 slowlog-log-slower-than 大的请求记录到 slowlog 里面,单位是微秒,所以 1000000 就是 1 秒。注意,负数时间会禁用慢查询日志,而 0 则会强制记录所有命令。 slowlog-log-slower-than 1000#慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。这个长度没有限制。只 要有足够的内存就行。你可以通过 SLOWLOG RESET 来释放内存。 slowlog-max-len 128 ################################ LATENCY MONITOR  ############################## #延迟监控功能是用来监控 redis 中执行比较缓慢的一些操作,用 LATENCY 打印 redis 实例在跑命令时 的耗时图表。只记录大于等于下边设置的值的操作。0 的话,就是关闭监视。默认延迟监控功能是关闭的, 如果你需要打开,也可以通过 CONFIG SET 命令动态设置。 latency-monitor-threshold 0 ############################# EVENT NOTIFICATION  ############################## #键空间通知使得客户端可以通过订阅频道或模式,来接收那些以某种方式改动了 Redis 数据集的事件。 因为开启键空间通知功能需要消耗一些 CPU ,所以在默认配置下,该功能处于关闭状态。 #notify-keyspace-events 的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通 知:##K 键空间通知,所有通知以 __keyspace@__ 为前缀 ##E 键事件通知,所有通知以 __keyevent@__ 为前缀 ##g DEL 、 EXPIRE 、 RENAME 等类型无关的通用命令的通知 ##$ 字符串命令的通知 ##l 列表命令的通知 ##s 集合命令的通知 ##h 哈希命令的通知 ##z 有序集合命令的通知 ##x 过期事件:每当有过期键被删除时发送 ##e 驱逐(evict)事件:每当有键因为 maxmemory 政策而被删除时发送 ##A 参数 g$lshzxe 的别名 #输入的参数中至少要有一个 K 或者 E,否则的话,不管其余的参数是什么,都不会有任何 通知被分发。 详细使用可以参考 http://redis.io/topics/notifications notify-keyspace-events "" ############################### ADVANCED CONFIG  ############################### #数据量小于等于 hash-max-ziplist-entries 的用 ziplist,大于 hash-max-ziplist-entries 用 hash hash-max-ziplist-entries 512#value 大小小于等于 hash-max-ziplist-value 的ziplist,大于 hash-max-ziplist-value 用 hash。 hash-max-ziplist-value 64 #数据量小于等于 list-max-ziplist-entries 用 ziplist,大于 list-max-ziplist-entries 用 list。 list-max-ziplist-entries 512#value 大小小于等于 list-max-ziplist-value 的用 ziplist,大于 list-max-ziplist-value 用 list。 list-max-ziplist-value 64 #数据量小于等于 set-max-intset-entries 用 iniset,大于 set-max-intset-entries 用 set。 set-max-intset-entries 51#数据量小于等于 zset-max-ziplist-entries 用 ziplist,大于 zset-max-ziplist-entries 用 zset。 zset-max-ziplist-entries 128#value 大小小于等于 zset-max-ziplist-value 用 ziplist, 大于 zset-max-ziplist-value 用 zset。 zset-max-ziplist-value 64 #value 大小小于等于 hll-sparse-max-bytes 使用稀疏数据结构(sparse),大于 hll-sparse-max-bytes 使用稠密的数据结构(dense)。一个比 16000 大的 value 是几乎没用的, 建议的 value 大概为 3000。如果对 CPU 要求不高,对空间要求较高的,建议设置到 10000 左右。 hll-sparse-max-bytes 3000 #Redis 将在每 100 毫秒时使用 1 毫秒的 CPU 时间来对 redis 的 hash 表进行重新 hash,可以降低内存 的使用。当你的使用场景中,有非常严格的实时性需要,不能够接受 Redis 时不时的对请求有 2 毫秒的迟的话,把这项配置为 no。如果没有这么严格的实时性要求,可以设置为 yes,以便能够尽可能快的释放 内存。activerehashing yes ##对客户端输出缓冲进行限制可以强迫那些不从服务器读取数据的客户端断开连接,用来强制关闭传输缓 慢的客户端。 #对于 normal client,第一个 0 表示取消 hard limit,第二个 0 和第三个 0 表示取消 soft limit,normal client 默认取消限制,因为如果没有寻问,他们是不会接收数据的。 client-output-buffer-limit normal 0 0 0#对于 slave client 和 MONITER client,如果 client-output-buffer 一旦超过 256mb,又或者超过 64mb 持续 60 秒,那么服务器就会立即断开客 户端连接。 client-output-buffer-limit slave 256mb 64mb 60#对于 pubsub client,如果 client-output-buffer 一旦超过 32mb,又或者超过 8mb 持续 60 秒,那么服务器就会立即断开客户 端连接。 client-output-buffer-limit pubsub 32mb 8mb 60 #redis 执行任务的频率为 1s 除以 hzhz 10 #在 aof 重写的时候,如果打开了 aof-rewrite-incremental-fsync 开关,系统会每 32MB 执行一 次 fsync。这对于把文件写入磁盘是有帮助的,可以避免过大的延迟峰值。 aof-rewrite-incremental-fsync yes

广告一刻

为您即时展示最新活动产品广告消息,让您随时掌握产品活动新动态!