老师,我们有一次MySQL崩溃,重启后发现有些已经提交的事务对数据 的修改丢失了,不是说事务能保证ACID特性么,想问下什么情况下可能导致“事务已经提交,数据却丢失”呢?
事务提交后,必须将事务对数据页的修改刷 (fsync) 到磁盘上,才能保证事务的ACID特性。
这个刷盘,是一个随机写,随机写性能较低, 如果每次事务提交都刷盘,会极大影响数据库 的性能 。
(1)先写日志 (write log first) ,将 随机写 优化为 顺序写 ;
先说第一个优化,将对数据的修改先顺序写到日志里,这个日志就是 redo log 。
假如某一时刻,数据库崩溃,还没来得及将数据页刷盘,数据库重启时,会重做 redo log 里的内容,以保证已提交事务对数据的影响被刷到磁盘上。
一句话, redo log 是为了保证已提交事务的ACID特性,同时能够提高数据库性能的技术 。
既然 redo log 能保证事务的ACID特性,那为什么还会出现,水友提问中出现的“数据库崩溃,丢数据”的问题呢?一起看下 redo log 的实现细节。
画了一个丑图,简单说明下 redo log 的三层架构 :
(1)粉色 ,是InnoDB的一项很重要的内存结构 (In-Memory Structure) , 日志缓冲区 (Log Buffer) ,这一层,是MySQL应用程序用户态;
(2) 屎黄色 ,是操作系统的缓冲区 (OS cache) ,这一层,是OS内核态;
(3) 蓝色 ,是落盘的日志文件;
redo log 最终落盘的步骤如何?
首先 ,事务提交的时候,会写入 Log Buffer ,这里调用的是MySQL自己的函数 WriteRedoLog ;
接着 ,只有当MySQL发起系统调用写文件 write 时, Log Buffer 里的数据,才会写到 OS cache 。注意,MySQL系统调用完 write 之后,就认为文件已经写完,如果不 flush ,什么时候落盘,是操作系统决定的;
画外音: 有时候打日志,明明 printf 了, tail -f 却看不到,就是这个原因,操作系统还没有刷盘。
最后 ,由操作系统(当然,MySQL也可以主动 flush )将 OS cache 里的数据,最终 fsync 到磁盘上;
操作系统为什么要缓冲数据到 OS cache 里,而不直接刷盘呢?
这里就是将“每次写”优化为“批量写”,以 提高操作系统性能 。
数据库为什么要缓冲数据到 Log Buffer 里,而不是直接 write 呢?
这也是“每次写”优化为“批量写”思路的体现,以 提高数据库性能 。
画外音: 这个优化思路,非常常见,高并发 的MQ 落盘,高并发的业务数据落盘,都可以使用。
redo log 的三层架构,MySQL做了一次批量写优化,OS做了一次批量写优化,确实能极大提升性能,但有什么副作用吗?
(1)事务提交时,将 redo log 写入 Log Buffer ,就会认为事务提交成功;
(2)如果写入 Log Buffer 的数据, write 入 OS cache 之前, 数据库崩溃 ,就会出现数据丢失;
(3)如果写入 OS cache 的数据, fsync 入磁盘之前, 操作系统崩溃 ,也可能出现数据丢失;
画外音: 如上文所说,应用程序系统调用完 write 之后(不可能每次 write 后都立刻 flush ,这样写日志很蠢),就认为写成功了,操作系统何时 fsync ,应用程序并不知道,如果操作系统崩溃,数据可能丢失。
(2)有些业务必须高性能高吞吐,能够容忍少量数据丢失;
innodb_flush_log_at_trx_commit
策略一:最佳性能 (innodb_flush_log_at_trx_commit =0 )
每隔一秒 ,才将 Log Buffer 中的数据 批量 write 入 OS cache , 同时 MySQL 主动 fsync 。
策略二:强一致 (innodb_flush_log_at_trx_commit =1 )
每次 事务提交,都将 Log Buffer 中的数据 write 入 OS cache , 同时 MySQL 主动 fsync 。
这种策略,是InnoDB的默认配置,为的是保证事务ACID特性。
策略三:折衷 (innodb_flush_log_at_trx_commit =2 )
每次 事务提交,都将 Log Buffer 中的数据 write 入 OS cache ;
每隔一秒 ,MySQL主动将 OS cache 中的数据 批量 fsync 。
画外音: 磁盘IO次数不确定,因为操作系统的fsync频率并不是MySQL能控制的。
这种策略,如果操作系统崩溃,最多有一秒的数据丢失。
画外音: 因为OS也会fsync,MySQL主动fsync的周期是一秒,所以最多丢一秒数据。
讲了这么多,回到水友的提问上来,数据库崩溃,重启后丢失了数据,有很大的可能,是将 innodb_flush_log_at_trx_commit 参数设置为0了,这位水友最好和DBA一起检查一下InnoDB的配置。
可能有水友要问,高并发的业务,InnoDB运用哪种刷盘策略最合适?
高并发业务,行业最佳实践,是使用第三种折衷配置 (=2) ,这是因为:
(1)配置为2和配置为0, 性能差异并不大 ,因为将数据从 Log Buffer 拷贝到 OS cache ,虽然跨越用户态与内核态,但毕竟只是内存的数据拷贝,速度很快;
(2)配置为2和配置为0, 安全性差异巨大 ,操作系统崩溃的概率相比MySQL应用程序崩溃的概率,小很多,设置为2,只要操作系统不崩溃,也绝对不会丢数据。 总结
一、为了保证事务的ACID特性,理论上每次事务提交都应该刷盘,但此时效率很低,有两种优化方向:
(1)随机写优化为顺序写;
(2)每次写优化为批量写;二、redo log 是一种顺序写,它有三层架构:
(1)MySQL应用层: Log Buffer
(2)OS内核层:OS cache
(3)OS文件:log file 三、为了满足不同业务对于吞吐量与一致性的需求,MySQL事务提交时刷redo log有三种策略:
(1)0:每秒write 一次 OS cache ,同时 fsync 刷磁盘,性能好;
(2)1:每次都 write 入 OS cache ,同时 fsync 刷磁盘,一致性好;
(3)2:每次都 write 入 OS cache ,每秒 fsync 刷磁盘,折衷; 四、高并发业务,行业内的最佳实践,是:innodb_flush_log_at_trx_commit=2 知其然,知其所以然 ,希望大家有收获。
发布者:糖太宗,转载请注明出处:https://www.qztxs.com/archives/science/technology/5850