分表分頁/跨庫分頁為什麼這麼難?

  • 2020 年 2 月 13 日
  • 筆記

當業務數據達到一定量級(比如:mysql單表記錄量>1千萬)後,通常會考慮「分庫分表」將數據分散到不同的庫或表中,這樣可以大大提高讀/寫性能。但是問題來了,對於 select * from table limit offset , pagesize 這種分頁方式,原來一條語句就可以簡單搞定的事情會變得很複雜,本文將與大家一起探討分庫分表後"分頁"面臨的新問題。

一、分表對分頁的影響

比如有一張表,裏面有8條記錄(為簡單起見,假設該表上只有1個自增ID),數學上可以抽象成1個(有序)數列(註:為方便討論,不加特殊說明的情況下,文本中數列的順序,均指升序)

(1,2,3,4,5,6,7,8)

如果要取出上面紅色標識的2,3這二條記錄,limit 1,2 就行了。

現在假如分成2張表(即:原來的數列,拆分成2個非空子數列),一般來講,有二種常用分法:

1.1 分段法(比如:有時間屬性的數據,類似訂單這種,可以按下單時間拆分,每個月1張表)

(1,2,3,4)

(5,6,7,8)

沿用之前的limit x,y的思路,每個分表上 limit 1,2,會得到如下2個子數列:

(2,3)

(6,7)

然後在內存中合併排序,再取前2條 (2,3,6,7) => (2,3) ,貌似看上去也符合預期(這個思路也稱為歸併),但這只是假象。當要取的分頁數據落在不同的子數列上時,就能發現問題:

(1,2,3,4,5,6,7,8) 比如,我們要從4個位置開始,連續取2個元素,即: limit 3,2

(1,2,3,4) => limit 3,2 =>(4)

(5,6,7,8) => limit 3,2 =>(8)

最後合併出來的結果是(4,8) 與正確結果 (4,5)相比,顯然不對。

1.2 模余均攤法(比如:字段值對2取模求餘數,根據餘數決定分到哪個表,該方法也簡稱為取余法)

(1,3,5,7)

(2,4,6,8)

歸併排序的思路在分段法上行不通,對於取模均攤同樣也不行,仍以 limit 1,2為例,原始序列取出來的結果是(2,3),如果用歸併的思路:

(1,3,5,7)=> limit 1,2 =>(3 ,5)

(2,4,6,8)=> limit 1,2 =>(4, 6)

內存合併排序後,取前2個,最終結果為(3 , 4)

結論:不管分庫分表採用什麼分法,簡單歸併的思路,都無法正確解決分頁問題。

二、全局法(limit x+y)

反思一下剛才的歸併思路,本質上我們在每個子數列(即:分表)上limit x,y 時,取出來的數據就有可能已經產生缺失了。網上有一篇廣為流轉的文章"業界難題-跨庫分頁」,作者在文中提出了一個方案:把範圍擴大,分表sql上的limit x,y 變成 limit 0, x+y ,這樣改寫後,相當於分表中把"每頁最後一條數據"之前的所有數據全都取出來了(當然:這裏面可能會有不需要的多餘數據),然後內存中合併在一起,再取x偏移量後的y條數據。

用前面的例子驗證一下:

原序列:(1,2,3,4,5,6,7,8),需要取出limit 1,2 ,即:(2,3)

2.1 按分段法拆成2段:

(1 , 2 , 3 , 4) => limit 1,2 =>改寫成 limit 0, 1+2 => (1,2,3)

(5 , 6 , 7 , 8) => limit 1,2 =>改寫成 limit 0, 1+2 => (5,6,7)

將子數列合併排序=> { 1,2,3,5,6,7} => 按原始偏移量 limit 1,2 =>{2,3} 正確

如果原數列中要取的數據,正好落在2個子數列上(1,2,3,4,5,6,7,8),需要取出limit 3,2 ,即:(4,5)

(1 , 2 , 3 , 4) => limit 3,2 =>改寫成 limit 0, 3+2 => (1,2,3,4)

(5 , 6 , 7 , 8) => limit 3,2 =>改寫成 limit 0, 3+2 => (5,6,7,8)

將子數列合併排序=> (1,2,3,4,5,6,7,8) => 按原始偏移量 limit 3,2 => (4,5) 也符合預期。

2.2 取模均攤拆成2段

(1,3,5,7) => limit 1,2 ->改寫成 limit 0, 1+2 => (1,3 ,5)

(2,4,6,8) => limit 1,2 ->改寫成 limit 0, 1+2=> (2,4,6)

將子序列合併=> (1,2,3,4,5,6) => 按原始偏移量 limit 1,2 =>(2,3) 正確

該方法缺點也很明顯:取出的記錄太多了,比如 limit 10000000,10 -> 改寫後變成 limit 0, 10000010 遇到海量數據,mysql中查詢有可能直接超時,這麼多數據從db傳到應用層,網絡開銷也很大,更不用說如果是java應用,大量數據放到List或Map中,容易出現OOM。(註:一般情況下,需要用分庫分表的場景,數據量必然很大,所以這個方法,實際中基本上沒法用)

三、二次查詢法

這也是"業界難題-跨庫分頁」一文中提到的一個方法,大致思路如下:在某1頁的數據均攤到各分表的前提下(註:這個前提很重要,也就是說不會有一個分表的數據特別多或特別少),換句話說:這個方案不適用分段法,按如下步驟操作:

1)原sql中的limit offset,pagesize 改寫成 limit offset/n ,pagesize (註:n為分表個數,如果offset/n除不盡,向下取整,避免最後的結果丟數據)– 這個的意思,其實就是假設原表這一頁的數據,會均分到各個分表(所以,我一再強調,前提是數據是均攤的,如果某個分表的記錄很少,極端情況下,甚至是空的,這個就不對了,最終結果會少數據)

2)分表上,執行改寫後的sql,得到一堆結果集,然後找出這堆結果中的最小id (假設id是關鍵的排序字段),記為min_id — 這一步的目的,是為了找出最小的起始點,保證第1頁數據起點正確。

3)各分表上的sql,where條件部分改寫成 id between min_id and origin_max_id (註:origin_max_id為上一步,每個分表查詢結果集中的最大值,顯然min_id=自身最小id的那張分表,不用再重複查詢) — 這一步的目的在於,因為步驟1)查出來的結果,通常會比原表上該頁的數據少,所以這裡重新將起始點設置到正確的位置,即:min_id,再查1次,相當於範圍擴大了,以保證數據不會丟。不過,這裡有一個可優化的地方,仔細想想,這1次查詢出來的結果,跟步驟1)中的查出來的結果,必然有一部分是重複的,因此改寫部分,只需要 id between min_id and origin_min_id就可以了(origin_min_id 即為原來分表結果上的最小id)

4)將上一步查詢出來的結果,在內存中合併排序去重(註:如果上一步採用了優化方案,就應該是把1)與3)這二次查詢的結果全取出來合併排序去重),然後從開始連續取pagesize條數據即可(註:offset/n除不盡的話,向下取整了,也就是起始點可能向前多移了,所以有可能開始的第1條記錄,其實是上1頁的最後1條記錄,要追求精確的話,可以在應用層記錄上一頁最後1條記錄的id,然後跟本次查詢結果前1條記錄對比,如果發現是一樣的,開始取數據的位置,就要向後移1位,如果考慮id有重複的話,就要根據情況多移幾位)

驗證一下看看效果:

場景1(前提:取余法)

原序列:(1,2,3,4,5,6,7,8),需要取出limit 2,2 ,即:(3,4)

第1次查詢

(1,3,5,7) -> limit 2,2 -> 改寫成 limit 1,2 -> (3,5)

(2,4,6,8) -> limit 2,2 -> 改寫成 limit 1,2 -> (4,6)

最小值為3

第2次查詢

(1,3,5,7) -> between 3 and 5 -> (3,5)

(2,4,6,8) -> between 3 and 6 -> (4,6)

將第2次查詢的結果合併:

(3,4,5,6) ->取頭開始,取pageSize即2個元素 -> (3,4) 正確

—————————————————–

場景2(前提:取余法)

原序列:(1,2,3,4,5,6,7,8),需要取出limit 1,2 ,即:(2,3)

第1次查詢

(1,3,5,7) -> limit 1,2 -> 改寫成 limit 0,2 -> (1,3) –註:因為1/2除不盡,這裡向下取整了

(2,4,6,8) -> limit 1,2 -> 改寫成 limit 0,2 -> (2,4)

最小值為1

第2次查詢

(1,3,5,7) -> between 1 and 3 -> (1,3)

(2,4,6,8) -> between 1 and 4 -> (2,4)

將上面的結果合併:

(1,2,3,4) -> (2,3) (註:起始點,第1次查詢改寫時,向下取整了,所以這裡要向移1位,從第2個數字開始取pagesize條數據)

——————————————————–

場景3(前提:分段法)

為什麼說分段法,這個方案不適用,可以看下面的分析:

原序列:(1,2,3,4,5,6,7,8),需要取出limit 2,2 ,即:(3,4)

第1次查詢

(1,2,3,4) -> limit 2,2 -> limit 1,2 -> {2,3} –註:這裡就已經把正確的數據給丟掉了

(5,6,7,8) -> limit 2,2 -> limit 1,2 -> {5,6} –註:這一段里根本就沒有這一頁的數據

最小值2

第2次查詢

(1,2,3,4) -> between 2 and 3 -> {2,3}

(5,6,7,8) -> between 2 and 6 -> {5,6}

(2,3,5,6) -> (2,3) 這個跟預期結果就對不上了。

——————————————————-

場景4(前提:取余法)

取余法的前提下,如果某個分表的數據,被清掉一部分,也就是某個分表數據偏少,會發生什麼?

比如下面這個,按奇數、偶數分成2個子序列,但是偶數故意刪除了幾個(相當於現實業務中,這個分表上的數據被幹掉了一部分)

原序列:(1,3,5,6,7,8,9,11),需要取出limit 2,2 ,即:(5,6)

第1次查詢

(1,3,5,7,9,11) -> limit 2,2 -> 改寫成limit 1,2 -> (3,5)

(6,8) -> limit 2,2 -> 改寫成limit 1,2 -> (8)

第2次查詢

(1,3,5,7,9,11) -> between 3 and 5 -> (3,5)

(6,8) -> between 3 and 8 -> (6,8)

合併後

(3,5,6,8) -> (3,5) 這跟預期結果也對不上。

四、禁止跳頁

相當於只允許向上或向下翻頁,原理很簡單,比如:下一頁,先記錄上一頁的最大id,然後下一頁時,只需要 where id > 上一頁最大id limit pagesize, 每次只翻1頁。顯然,這是一個犧牲用戶體驗的做法。

結論:分表分頁不存在一個通用的解決方案,要麼性能有問題(比如:全局法 limit x+y),要麼必須具備一定的前提條件(比如:二次查詢),或者產品設計上犧牲用戶體驗,仍然是一個業內難題。

參考文章:

https://juejin.im/post/5d1f52e46fb9a07eb3099bbf

https://shardingsphere.apache.org/document/current/cn/features/sharding/use-norms/pagination/

https://stackoverflow.com/questions/3927537/how-do-you-implement-sorting-and-paging-on-distributed-data

http://kmiku7.github.io/2019/08/01/Do-Pagination-With-Table-Database-Sharding/

https://segmentfault.com/a/1190000013225860?utm_source=tag-newest

https://mp.weixin.qq.com/s/h99sXP4mvVFsJw6Oh3aU5A?