突然掛了!Redis快取都在記憶體中,這下完了!
- 2020 年 9 月 18 日
- 筆記
我是Redis,一個叫Antirez的男人把我帶到了這個世界上。
「快醒醒!快醒醒!」,隱隱約約,我聽到有人在叫我。
慢慢睜開眼睛,原來旁邊是MySQL大哥。
「我怎麼睡著了?」
「嗨,你剛才是不是出現了錯誤,整個進程都崩潰了!害得一大堆查詢請求都給我懟過來了!」,MySQL說到。
剛剛醒來,腦子還有點懵,MySQL大哥扶我起來繼續工作。
「糟了!我之前快取的數據全都不見了!」
「WTF?你沒有做持久化嗎?」,MySQL大哥一聽臉色都變了。
我尷尬的搖了搖頭,「我都是保存在記憶體中的,所以才那麼快啊」
「那也可以在硬碟上保存一下啊,遇到這種情況全部從頭再來建立快取,這不浪費時間嘛!」
我點了點頭,「讓我琢磨一下,看看怎麼做這個持久化」。
RDB持久化
沒幾天,我就拿出了一套方案:RDB
既然我的數據都在記憶體中存放著,最簡單的就是遍歷一遍把它們全都寫入文件中。
為了節約空間,我定義了一個二進位的格式,把數據一條一條碼在一起,生成了一個RDB文件。
不過我的數據量有點大,要是全部備份一次得花不少時間,所以不能太頻繁的去做這事,要不然我不用干正事了,光花時間去備份了。
還有啊,要是一直沒有寫入操作,都是讀取操作,那我也不用重複備份,浪費時間。
思來想去,我決定提供一個配置參數,既可以支援周期性備份,也可以避免做無用功。
就像這樣:
- save 900 1 # 900秒(15分鐘)內有1個寫入
- save 300 10 # 300秒(5分鐘)內有10個寫入
- save 60 10000 # 60秒(1分鐘)內有10000個寫入
多個條件可以組合使用,只要上面一個條件滿足,我就會去進行備份。
後來我又想了一下,這樣還是不行,我得fork出一個子進程去做這件事,不能浪費我的時間。
有了備份文件,下次我再遇到崩潰退出,甚至伺服器斷電罷工了,只要我的備份文件還在,我就能在啟動的時候讀取,快速恢復之前的狀態啦!
MySQL:binlog
我帶著這套方案,興沖沖的拿給了MySQL大哥看了,期待他給我一些鼓勵。
「老弟,你這個方案有點問題啊」,沒想到,他竟給我澆了一盆冷水。
「問題?有什麼問題?」
「你看啊,你這個周期性去備份,周期還是分鐘級別的,你可知道咱們這服務每秒鐘都要響應多少請求,像你這樣不得丟失多少數據?」,MySQL語重心長的說到。
我一下有些氣短了,「可是,這個備份一次要遍歷全部數據,開銷還是挺大的,不適合高頻執行啊」
「誰叫你一次遍歷全部數據了?來來來,我給你看個東西」,MySQL大哥把我帶到了一個文件目錄下:
- mysql-bin.000001
- mysql-bin.000002
- mysql-bin.000003
- ···
「看,這些是我的二進位日誌binlog,你猜猜看裡面都裝了些什麼?」,MySQL大哥指著這一堆文件說到。
我看了一眼,全是一堆二進位數據,這哪看得懂,我搖了搖頭。
「這裡面呀記錄了我對數據執行更改的所有操作,像是INSERT,UPDATE、DELETE等等動作,等我要進行數據恢復的時候就可以派上大用場了」
聽他這麼一說,我一下來了靈感!告別了MySQL大哥,回去研究起新的方案來了。
AOF持久化
你們也知道,我也是基於命令式的,每天的工作就是響應業務程式發來的命令請求。
回來以後,我決定照葫蘆畫瓢,學著MySQL大哥的樣子,把我執行的所有寫入命令都記錄下來,專門寫入了一個文件,並給這種持久化方式也取了一個名字:AOF(Append Only File)。
不過我遇到了RDB方案同樣的問題,我該多久寫一次文件呢?
我肯定不能每執行一條寫入命令就記錄到文件中,那會嚴重拖垮我的性能!我決定準備一個緩衝區,然後把要記錄的命令先臨時保存在這裡,然後再擇機寫入文件,我把這個臨時緩衝區叫做aof_buf。
說干就干,我試了一下,竟然發現數據沒有寫入到文件中去。多方打聽才知道,原來作業系統也有個快取區,我寫的數據被他快取起來了,沒有給我寫入到文件中去,這不是坑爹呢嘛!
看來,我寫完了還得要去刷新一下,把數據真正給寫下去,思來想去,我還是提供一個參數,讓業務程式去設置什麼時候刷新吧。
appendfsync
參數,三個取值:
- always: 每個事件周期都同步刷新一次
- everysec: 每一秒都同步刷新一次
- no: 我只管寫,讓作業系統自己決定什麼時候真正寫入吧
AOF重寫
這一次我不像之前那麼衝動,我決定先試運行一段時間再去告訴MySQL大哥,免得又被他戳到軟肋。
試用了一段時間,各方面都運行良好,不過我發現隨著時間的推移,我寫的這個AOF備份文件越來越大,越來越大!不僅非常占硬碟空間,複製移動,載入分析都非常的麻煩耗時。
我得想個辦法把文件給壓縮一下,我把這個過程叫做AOF重寫。
一開始,我打算去分析原來的AOF文件,然後將其中的冗餘指令去掉,來給AOF文件瘦瘦身,不過我很快放棄了這個想法,這工作量實在太大了,分析起來也頗為麻煩,浪費很多精力跟時間。
原來的一條條記錄這種方式實在是太笨了,數據改來改去,有很多中間狀態都沒用,我何不就把最終都數據狀態記錄下來就好了?
比如:
- RPUSH name_list ‘編程技術宇宙’
- RPUSH name_list ‘帥地玩編程’
- RPUSH name_list ‘後端技術學堂’
可以合併成一條搞定:
- RPUSH name_list ‘編程技術宇宙’ ‘帥地玩編程’ ‘後端技術學堂’
AOF文件重寫的思路我是有了,不過這件事幹起來還是很耗時間,我決定和RDB方式一樣,fork出一個子進程來做這件事情。
謹慎如我,發現這樣做之後,子進程在重寫期間,我要是修改了數據,就會出現和重寫的內容不一致的情況!MySQL大哥肯定會挑刺兒,我還得把這個漏洞給補上。
於是,我在之前的aof_buf之外,又準備了一個緩衝區:AOF重寫緩衝區。
從創建重寫子進程開始的那一刻起,我把後面來的寫入命令也copy一份寫到這個重寫緩衝區中,等到子進程重寫AOF文件結束之後,我再把這個緩衝區中的命令寫入到新的AOF文件中。
最後再重命名新的AOF文件,替換掉原來的那個臃腫不堪的大文件,終於大功告成!
再三確定我的思路沒有問題之後,我帶著新的方案再次找到了MySQL大哥,我都做到這份兒上了,這一次,想必他應該無話可說了吧?
MySQL大哥看了我的方案露出了滿意的笑容,只是問了一個問題:
這AOF方案這麼好了,RDB方案是不是可以不要了呢?
萬萬沒想到,他居然問我這個問題,我竟陷入了沉思,你覺得我該怎麼回答好呢?
彩蛋
「你怎麼又崩潰了?」
「不好意思,又遇到bug了,不過不用擔心,我現在可以快速恢復了!」
「那老崩潰也不是事兒啊,你只有一個實例太不可靠了,去找幾個幫手吧!」
預知詳情,請關注後續精彩···