MySQL 日誌系統之 redo log 和 binlog

  • 2019 年 10 月 24 日
  • 筆記

之前我們了解了一條查詢語句的執行流程,並介紹了執行過程中涉及的處理模塊。一條查詢語句的執行過程一般是經過連接器、分析器、優化器、執行器等功能模塊,最後到達存儲引擎。

那麼,一條 SQL 更新語句的執行流程又是怎樣的呢?

首先我們創建一個表 user_info,主鍵為 id,創建語句如下:

CREATE TABLE `T` (    `ID` int(11) NOT NULL,    `c` int(11) DEFAULT NULL,    PRIMARY KEY (`ID`)  ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;

插入一條數據:

INSERT INTO T VALUES ('2', '1');

如果要將 ID=2 這一行的 c 的值加 1,SQL 語句為:

UPDATE T SET c = c + 1 WHERE ID = 2;

前面介紹過 SQL 語句基本的執行鏈路,這裡把那張圖拿過來。因為,更新語句同樣會走一遍查詢語句走的流程。

MySQL基本架構示意圖

  1. 通過連接器,客戶端與 MySQL 建立連接
  2. update 語句會把 T 表上的所有查詢緩存結果清空
  3. 分析器會通過詞法分析和語法分析識別這是一條更新語句
  4. 優化器會決定使用 ID 這個索引(聚簇索引)
  5. 執行器負責具體執行,找到匹配的一行,然後更新
  6. 更新過程中還會涉及 redo log(重做日誌)和 binlog(歸檔日誌)的操作

其中,這兩種日誌默認在數據庫的 data 目錄下,redo log 是 ib_logfile0 格式的,binlog 是 xxx-bin.000001 格式的。

接下來讓我們分別去研究下日誌模塊中的 redo log 和 binlog。

日誌模塊:redo log

在 MySQL 中,如果每一次的更新操作都需要寫進磁盤,然後磁盤也要找到對應的那條記錄,然後再更新,整個過程 IO 成本、查找成本都很高。為了解決這個問題,MySQL 的設計者就採用了日誌(redo log)來提升更新效率。

而日誌和磁盤配合的整個過程,其實就是 MySQL 里的 WAL 技術,WAL 的全稱是 Write-Ahead Logging,它的關鍵點就是先寫日誌,再寫磁盤。

具體來說,當有一條記錄需要更新的時候,InnoDB 引擎就會先把記錄寫到 redo log(redolog buffer)裏面,並更新內存(buffer pool),這個時候更新就算完成了。同時,InnoDB 引擎會在適當的時候(如系統空閑時),將這個操作記錄更新到磁盤裏面(刷臟頁)。

redo log 是 InnoDB 存儲引擎層的日誌,又稱重做日誌文件,redo log 是循環寫的,redo log 不是記錄數據頁更新之後的狀態,而是記錄這個頁做了什麼改動。

redo log 是固定大小的,比如可以配置為一組 4 個文件,每個文件的大小是 1GB,那麼日誌總共就可以記錄 4GB 的操作。從頭開始寫,寫到末尾就又回到開頭循環寫,如下圖所示。

redolog循環寫

圖中展示了一組 4 個文件的 redo log 日誌,checkpoint 是當前要擦除的位置,擦除記錄前需要先把對應的數據落盤(更新內存頁,等待刷臟頁)。write pos 到 checkpoint 之間的部分可以用來記錄新的操作,如果 write pos 和 checkpoint 相遇,說明 redolog 已滿,這個時候數據庫停止進行數據庫更新語句的執行,轉而進行 redo log 日誌同步到磁盤中。checkpoint 到 write pos 之間的部分等待落盤(先更新內存頁,然後等待刷臟頁)。

有了 redo log 日誌,那麼在數據庫進行異常重啟的時候,可以根據 redo log 日誌進行恢復,也就達到了 crash-safe。

redo log 用於保證 crash-safe 能力。innodb_flush_log_at_trx_commit 這個參數設置成 1 的時候,表示每次事務的 redo log 都直接持久化到磁盤。這個參數建議設置成 1,這樣可以保證 MySQL 異常重啟之後數據不丟失。

日誌模塊:binlog

MySQL 整體來看,其實就有兩塊:一塊是 Server 層,它主要做的是 MySQL 功能層面的事情;還有一塊是引擎層,負責存儲相關的具體事宜。redo log 是 InnoDB 引擎特有的日誌,而 Server 層也有自己的日誌,稱為 binlog(歸檔日誌)。

binlog 屬於邏輯日誌,是以二進制的形式記錄的是這個語句的原始邏輯,依靠 binlog 是沒有 crash-safe 能力的。

binlog 有兩種模式,statement 格式的話是記 sql 語句,row 格式會記錄行的內容,記兩條,更新前和更新後都有。

sync_binlog 這個參數設置成 1 的時候,表示每次事務的 binlog 都持久化到磁盤。這個參數也建議設置成 1,這樣可以保證 MySQL 異常重啟之後 binlog 不丟失。

為什麼會有兩份日誌呢?

因為最開始 MySQL 里並沒有 InnoDB 引擎。MySQL 自帶的引擎是 MyISAM,但是 MyISAM 沒有 crash-safe 的能力,binlog 日誌只能用于歸檔。而 InnoDB 是另一個公司以插件形式引入 MySQL 的,既然只依靠 binlog 是沒有 crash-safe 能力的,所以 InnoDB 使用另外一套日誌系統——也就是 redo log 來實現 crash-safe 能力。

redo log 和 binlog 區別:

  1. redo log 是 InnoDB 引擎特有的;binlog 是 MySQL 的 Server 層實現的,所有引擎都可以使用。
  2. redo log 是物理日誌,記錄的是在某個數據頁上做了什麼修改;binlog 是邏輯日誌,記錄的是這個語句的原始邏輯。
  3. redo log 是循環寫的,空間固定會用完;binlog 是可以追加寫入的。追加寫是指 binlog 文件寫到一定大小後會切換到下一個,並不會覆蓋以前的日誌。

有了對這兩個日誌的概念性理解後,再來看執行器和 InnoDB 引擎在執行這個 update 語句時的內部流程。

  1. 執行器先找引擎取 ID=2 這一行。ID 是主鍵,引擎直接用樹搜索找到這一行。如果 ID=2 這一行所在的數據頁本來就在內存中,就直接返回給執行器;否則,需要先從磁盤讀入內存,然後再返回。
  2. 執行器拿到引擎給的行數據,把這個值加上 1,比如原來是 N,現在就是 N+1,得到新的一行數據,再調用引擎接口寫入這行新數據。
  3. 引擎將這行新數據更新到內存(InnoDB Buffer Pool)中,同時將這個更新操作記錄到 redo log 裏面,此時 redo log 處於 prepare 狀態。然後告知執行器執行完成了,隨時可以提交事務。
  4. 執行器生成這個操作的 binlog,並把 binlog 寫入磁盤。
  5. 執行器調用引擎的提交事務接口,引擎把剛剛寫入的 redo log 改成提交(commit)狀態,更新完成。

下圖為 update 語句的執行流程圖,圖中灰色框表示是在 InnoDB 內部執行的,綠色框表示是在執行器中執行的。

update語句執行流程

其中將 redo log 的寫入拆成了兩個步驟:prepare 和 commit,這就是兩階段提交(2PC)。

兩階段提交(2PC)

MySQL 使用兩階段提交主要解決 binlog 和 redo log 的數據一致性的問題。

redo log 和 binlog 都可以用於表示事務的提交狀態,而兩階段提交就是讓這兩個狀態保持邏輯上的一致。下圖為 MySQL 二階段提交簡圖:

MySQL二階段提交圖

兩階段提交原理描述:

  1. InnoDB redo log 寫盤,InnoDB 事務進入 prepare 狀態。
  2. 如果前面 prepare 成功,binlog 寫盤,那麼再繼續將事務日誌持久化到 binlog,如果持久化成功,那麼 InnoDB 事務則進入 commit 狀態(在 redo log 裏面寫一個 commit 記錄)

備註: 每個事務 binlog 的末尾,會記錄一個 XID event,標誌着事務是否提交成功,也就是說,recovery 過程中,binlog 最後一個 XID event 之後的內容都應該被 purge。

日誌相關問題

怎麼進行數據恢復?

binlog 會記錄所有的邏輯操作,並且是採用追加寫的形式。當需要恢復到指定的某一秒時,比如今天下午二點發現中午十二點有一次誤刪表,需要找回數據,那你可以這麼做:

  • 首先,找到最近的一次全量備份,從這個備份恢復到臨時庫
  • 然後,從備份的時間點開始,將備份的 binlog 依次取出來,重放到中午誤刪表之前的那個時刻。

這樣你的臨時庫就跟誤刪之前的線上庫一樣了,然後你可以把表數據從臨時庫取出來,按需要恢復到線上庫去。

redo log 和 binlog 是怎麼關聯起來的?

redo log 和 binlog 有一個共同的數據字段,叫 XID。崩潰恢復的時候,會按順序掃描 redo log:

  • 如果碰到既有 prepare、又有 commit 的 redo log,就直接提交;
  • 如果碰到只有 parepare、而沒有 commit 的 redo log,就拿着 XID 去 binlog 找對應的事務。

MySQL 怎麼知道 binlog 是完整的?

一個事務的 binlog 是有完整格式的:

  • statement 格式的 binlog,最後會有 COMMIT
  • row 格式的 binlog,最後會有一個 XID event

在 MySQL 5.6.2 版本以後,還引入了 binlog-checksum 參數,用來驗證 binlog 內容的正確性。對於 binlog 日誌由於磁盤原因,可能會在日誌中間出錯的情況,MySQL 可以通過校驗 checksum 的結果來發現。所以,MySQL 是有辦法驗證事務 binlog 的完整性的。

redo log 一般設置多大?

redo log 太小的話,會導致很快就被寫滿,然後不得不強行刷 redo log,這樣 WAL 機制的能力就發揮不出來了。

如果是幾個 TB 的磁盤的話,直接將 redo log 設置為 4 個文件,每個文件 1GB。

數據寫入後的最終落盤,是從 redo log 更新過來的還是從 buffer pool 更新過來的呢?

實際上,redo log 並沒有記錄數據頁的完整數據,所以它並沒有能力自己去更新磁盤數據頁,也就不存在由 redo log 更新過去數據最終落盤的情況。

  1. 數據頁被修改以後,跟磁盤的數據頁不一致,稱為臟頁。最終數據落盤,就是把內存中的數據頁寫盤。這個過程與 redo log 毫無關係。
  2. 在崩潰恢復場景中,InnoDB 如果判斷到一個數據頁可能在崩潰恢復的時候丟失了更新,就會將它讀到內存,然後讓 redo log 更新內存內容。更新完成後,內存頁變成臟頁,就回到了第一種情況的狀態。

redo log buffer 是什麼?是先修改內存,還是先寫 redo log 文件?

在一個事務的更新過程中,日誌是要寫多次的。比如下面這個事務:

begin;  INSERT INTO T1 VALUES ('1', '1');  INSERT INTO T2 VALUES ('1', '1');  commit;

這個事務要往兩個表中插入記錄,插入數據的過程中,生成的日誌都得先保存起來,但又不能在還沒 commit 的時候就直接寫到 redo log 文件里。

因此就需要 redo log buffer 出場了,它就是一塊內存,用來先存 redo 日誌的。也就是說,在執行第一個 insert 的時候,數據的內存被修改了,redo log buffer 也寫入了日誌。

但是,真正把日誌寫到 redo log 文件,是在執行 commit 語句的時候做的。

以下是我截取的部分 redo log buffer 的源代碼:

/** redo log buffer */  struct log_t{      char        pad1[CACHE_LINE_SIZE];      lsn_t       lsn;      ulint       buf_free;   // buffer 內剩餘空間的起始點的 offset  #ifndef UNIV_HOTBACKUP      char        pad2[CACHE_LINE_SIZE];      LogSysMutex mutex;      LogSysMutex write_mutex;      char        pad3[CACHE_LINE_SIZE];      FlushOrderMutex log_flush_order_mutex;  #endif /* !UNIV_HOTBACKUP */      byte*       buf_ptr;    // 隱性的 buffer      byte*       buf;        // 真正操作的 buffer      bool        first_in_use;      ulint       buf_size;   // buffer大小      bool        check_flush_or_checkpoint;      UT_LIST_BASE_NODE_T(log_group_t) log_groups;    #ifndef UNIV_HOTBACKUP      /** The fields involved in the log buffer flush @{ */      ulint       buf_next_to_write;      volatile bool   is_extending;      lsn_t       write_lsn;  /*!< last written lsn */      lsn_t       current_flush_lsn;      lsn_t       flushed_to_disk_lsn;      ulint       n_pending_flushes;      os_event_t  flush_event;      ulint       n_log_ios;      ulint       n_log_ios_old;      time_t      last_printout_time;        /** Fields involved in checkpoints @{ */      lsn_t       log_group_capacity;      lsn_t       max_modified_age_async;      lsn_t       max_modified_age_sync;      lsn_t       max_checkpoint_age_async;      lsn_t       max_checkpoint_age;      ib_uint64_t next_checkpoint_no;      lsn_t       last_checkpoint_lsn;      lsn_t       next_checkpoint_lsn;      mtr_buf_t*  append_on_checkpoint;      ulint       n_pending_checkpoint_writes;      rw_lock_t   checkpoint_lock;  #endif /* !UNIV_HOTBACKUP */      byte*       checkpoint_buf_ptr;      byte*       checkpoint_buf;      /* @} */  };

redo log buffer 本質上只是一個 byte 數組,但是為了維護這個 buffer 還需要設置很多其他的 meta data,這些 meta data 全部封裝在 log_t 結構體中。

總結

這篇文章主要介紹了 MySQL 裏面最重要的兩個日誌,即物理日誌 redo log(重做日誌)和邏輯日誌 binlog(歸檔日誌),還講解了有與日誌相關的一些問題。

另外還介紹了與 MySQL 日誌系統密切相關的兩階段提交(2PC),兩階段提交是解決分佈式系統的一致性問題常用的一個方案,類似的還有 三階段提交(3PC) 和 PAXOS 算法。