Redis 實戰篇:巧用數據類型實現億級數據統計
在移動應用的業務場景中,我們需要保存這樣的信息:一個 key 關聯了一個數據集合,同時還要對集合中的數據進行統計排序。
常見的場景如下:
- 給一個 userId ,判斷用戶登陸狀態;
- 兩億用戶最近 7 天的簽到情況,統計 7 天內連續簽到的用戶總數;
- 統計每天的新增與第二天的留存用戶數;
- 統計網站的對訪客(Unique Visitor,UV)量
- 最新評論列表
- 根據播放量音樂榜單
通常情況下,我們面臨的用戶數量以及訪問量都是巨大的,比如百萬、千萬級別的用戶數量,或者千萬級別、甚至億級別的訪問信息。
所以,我們必須要選擇能夠非常高效地統計大量數據(例如億級)的集合類型。
如何選擇合適的數據集合,我們首先要了解常用的統計模式,並運用合理的數據了性來解決實際問題。
四種統計類型:
- 二值狀態統計;
- 聚合統計;
- 排序統計;
- 基數統計。
本文將用到 String、Set、Zset、List、hash 以外的拓展數據類型 Bitmap
、HyperLogLog
來實現。
文章涉及到的指令可以通過在線 Redis 客戶端運行調試,地址://try.redis.io/,超方便的說。
寄語
多分享多付出,前期多給別人創造價值並且不計回報,從長遠來看,這些付出都會成倍的回報你。
特別是剛開始跟別人合作的時候,不要去計較短期的回報,沒有太大意義,更多的是鍛煉自己的視野、視角以及解決問題的能力。
二值狀態統計
碼哥,什麼是二值狀態統計呀?
也就是集合中的元素的值只有 0 和 1 兩種,在簽到打卡和用戶是否登陸的場景中,只需記錄簽到(1)
或 未簽到(0)
,已登錄(1)
或未登陸(0)
。
假如我們在判斷用戶是否登陸的場景中使用 Redis 的 String 類型實現(key -> userId,value -> 0 表示下線,1 – 登陸),假如存儲 100 萬個用戶的登陸狀態,如果以字符串的形式存儲,就需要存儲 100 萬個字符串了,內存開銷太大。
對於二值狀態場景,我們就可以利用 Bitmap 來實現。比如登陸狀態我們用一個 bit 位表示,一億個用戶也只佔用 一億 個 bit 位內存 ≈ (100000000 / 8/ 1024/1024)12 MB。
大概的空間佔用計算公式是:($offset/8/1024/1024) MB
什麼是 Bitmap 呢?
Bitmap 的底層數據結構用的是 String 類型的 SDS 數據結構來保存位數組,Redis 把每個位元組數組的 8 個 bit 位利用起來,每個 bit 位 表示一個元素的二值狀態(不是 0 就是 1)。
可以將 Bitmap 看成是一個 bit 為單位的數組,數組的每個單元只能存儲 0 或者 1,數組的下標在 Bitmap 中叫做 offset 偏移量。
為了直觀展示,我們可以理解成 buf 數組的每個位元組用一行表示,每一行有 8 個 bit 位,8 個格子分別表示這個位元組中的 8 個 bit 位,如下圖所示:
8 個 bit 組成一個 Byte,所以 Bitmap 會極大地節省存儲空間。 這就是 Bitmap 的優勢。
判斷用戶登陸態
怎麼用 Bitmap 來判斷海量用戶中某個用戶是否在線呢?
Bitmap 提供了 GETBIT、SETBIT
操作,通過一個偏移值 offset 對 bit 數組的 offset 位置的 bit 位進行讀寫操作,需要注意的是 offset 從 0 開始。
只需要一個 key = login_status 表示存儲用戶登陸狀態集合數據, 將用戶 ID 作為 offset,在線就設置為 1,下線設置 0。通過 GETBIT
判斷對應的用戶是否在線。 50000 萬 用戶只需要 6 MB 的空間。
SETBIT 命令
SETBIT <key> <offset> <value>
設置或者清空 key 的 value 在 offset 處的 bit 值(只能是 0 或者 1)。
GETBIT 命令
GETBIT <key> <offset>
獲取 key 的 value 在 offset 處的 bit 位的值,當 key 不存在時,返回 0。
假如我們要判斷 ID = 10086 的用戶的登陸情況:
第一步,執行以下指令,表示用戶已登錄。
SETBIT login_status 10086 1
第二步,檢查該用戶是否登陸,返回值 1 表示已登錄。
GETBIT login_status 10086
第三步,登出,將 offset 對應的 value 設置成 0。
SETBIT login_status 10086 0
用戶每個月的簽到情況
在簽到統計中,每個用戶每天的簽到用 1 個 bit 位表示,一年的簽到只需要 365 個 bit 位。一個月最多只有 31 天,只需要 31 個 bit 位即可。
比如統計編號 89757 的用戶在 2021 年 5 月份的打卡情況要如何進行?
key 可以設計成 uid:sign:{userId}:{yyyyMM}
,月份的每一天的值 – 1 可以作為 offset(因為 offset 從 0 開始,所以 offset = 日期 - 1
)。
第一步,執行下面指令表示記錄用戶在 2021 年 5 月 16 號打卡。
SETBIT uid:sign:89757:202105 15 1
第二步,判斷編號 89757 用戶在 2021 年 5 月 16 號是否打卡。
GETBIT uid:sign:89757:202105 15
第三步,統計該用戶在 5 月份的打卡次數,使用 BITCOUNT
指令。該指令用於統計給定的 bit 數組中,值 = 1 的 bit 位的數量。
BITCOUNT uid:sign:89757:202105
這樣我們就可以實現用戶每個月的打卡情況了,是不是很贊。
如何統計這個月首次打卡時間呢?
Redis 提供了 BITPOS key bitValue [start] [end]
指令,返回數據表示 Bitmap 中第一個值為 bitValue
的 offset 位置。
在默認情況下, 命令將檢測整個位圖, 用戶可以通過可選的 start
參數和 end
參數指定要檢測的範圍。
所以我們可以通過執行以下指令來獲取 userID = 89757 在 2021 年 5 月份首次打卡日期:
BITPOS uid:sign:89757:202105 1
需要注意的是,我們需要將返回的 value + 1 表示首次打卡的天,因為 offset 從 0 開始。
連續簽到用戶總數
在記錄了一個億的用戶連續 7 天的打卡數據,如何統計出這連續 7 天連續打卡用戶總數呢?
我們把每天的日期作為 Bitmap 的 key,userId 作為 offset,若是打卡則將 offset 位置的 bit 設置成 1。
key 對應的集合的每個 bit 位的數據則是一個用戶在該日期的打卡記錄。
一共有 7 個這樣的 Bitmap,如果我們能對這 7 個 Bitmap 的對應的 bit 位做 『與』運算。
同樣的 UserID offset 都是一樣的,當一個 userID 在 7 個 Bitmap 對應對應的 offset 位置的 bit = 1 就說明該用戶 7 天連續打卡。
結果保存到一個新 Bitmap 中,我們再通過 BITCOUNT
統計 bit = 1 的個數便得到了連續打卡 7 天的用戶總數了。
Redis 提供了 BITOP operation destkey key [key ...]
這個指令用於對一個或者多個 鍵 = key 的 Bitmap 進行位元操作。
opration
可以是 and
、OR
、NOT
、XOR
。當 BITOP 處理不同長度的字符串時,較短的那個字符串所缺少的部分會被當做 0
。
空的 key
也被看作是包含 0
的字符串序列。
便於理解,如下圖所示:
3 個 Bitmap,對應的 bit 位做「與」操作,結果保存到新的 Bitmap 中。
操作指令表示將 三個 bitmap 進行 AND 操作,並將結果保存到 destmap 中。接着對 destmap 執行 BITCOUNT 統計。
// 與操作
BITOP AND destmap bitmap:01 bitmap:02 bitmap:03
// 統計 bit 位 = 1 的個數
BITCOUNT destmap
簡單計算下 一個一億個位的 Bitmap佔用的內存開銷,大約佔 12 MB 的內存(10^8/8/1024/1024),7 天的 Bitmap 的內存開銷約為 84 MB。同時我們最好給 Bitmap 設置過期時間,讓 Redis 刪除過期的打卡數據,節省內存。
小結
思路才是最重要,當我們遇到的統計場景只需要統計數據的二值狀態,比如用戶是否存在、 ip 是否是黑名單、以及簽到打卡統計等場景就可以考慮使用 Bitmap。
只需要一個 bit 位就能表示 0 和 1,在統計海量數據的時候將大大減少內存佔用。
基數統計
基數統計:統計一個集合中不重複元素的個數,常見於計算獨立用戶數(UV)。
實現基數統計最直接的方法,就是採用集合(Set)這種數據結構,當一個元素從未出現過時,便在集合中增加一個元素;如果出現過,那麼集合仍保持不變。
當頁面訪問量巨大,就需要一個超大的 Set 集合來統計,將會浪費大量空間。
另外,這樣的數據也不需要很精確,到底有沒有更好的方案呢?
這個問題問得好,Redis 提供了 HyperLogLog
數據結構就是用來解決種種場景的統計問題。
HyperLogLog
是一種不精確的去重基數方案,它的統計規則是基於概率實現的,標準誤差 0.81%,這樣的精度足以滿足 UV 統計需求了。
關於 HyperLogLog 的原理過於複雜,如果想要了解的請移步:
網站的 UV
通過 Set 實現
一個用戶一天內多次訪問一個網站只能算作一次,所以很容易就想到通過 Redis 的 Set 集合來實現。
用戶編號 89757 訪問 「Redis 為什麼這麼快 」時,我們將這個信息放到 Set 中。
SADD Redis為什麼這麼快:uv 89757
當用戶編號 89757 多次訪問「Redis 為什麼這麼快」頁面,Set 的去重功能能保證不會重複記錄同一個用戶 ID。
通過 SCARD
命令,統計「Redis 為什麼這麼快」頁面 UV。指令返回一個集合的元素個數(也就是用戶 ID)。
SCARD Redis為什麼這麼快:uv
通過 Hash 實現
碼老濕,還可以利用 Hash 類型實現,將用戶 ID 作為 Hash 集合的 key,訪問頁面則執行 HSET 命令將 value 設置成 1。
即使用戶重複訪問,重複執行命令,也只會把這個 userId 的值設置成 「1″。
最後,利用 HLEN
命令統計 Hash 集合中的元素個數就是 UV。
如下:
HSET redis集群:uv userId:89757 1
// 統計 UV
HLEN redis集群
HyperLogLog 王者方案
碼老濕,Set 雖好,如果文章非常火爆達到千萬級別,一個 Set 就保存了千萬個用戶的 ID,頁面多了消耗的內存也太大了。同理,Hash數據類型也是如此。咋辦呢?
利用 Redis 提供的 HyperLogLog
高級數據結構(不要只知道 Redis 的五種基礎數據類型了)。這是一種用於基數統計的數據集合類型,即使數據量很大,計算基數需要的空間也是固定的。
每個 HyperLogLog
最多只需要花費 12KB 內存就可以計算 2 的 64 次方個元素的基數。
Redis 對 HyperLogLog
的存儲進行了優化,在計數比較小的時候,存儲空間採用係數矩陣,佔用空間很小。
只有在計數很大,稀疏矩陣佔用的空間超過了閾值才會轉變成稠密矩陣,佔用 12KB 空間。
PFADD
將訪問頁面的每個用戶 ID 添加到 HyperLogLog
中。
PFADD Redis主從同步原理:uv userID1 userID 2 useID3
PFCOUNT
利用 PFCOUNT
獲取 「Redis主從同步原理」頁面的 UV值。
PFCOUNT Redis主從同步原理:uv
PFMERGE 使用場景
HyperLogLog
除了上面的 PFADD
和 PFCOIUNT
外,還提供了 PFMERGE
,將多個 HyperLogLog
合併在一起形成一個新的 HyperLogLog
值。
語法
PFMERGE destkey sourcekey [sourcekey ...]
使用場景
比如在網站中我們有兩個內容差不多的頁面,運營說需要這兩個頁面的數據進行合併。
其中頁面的 UV 訪問量也需要合併,那這個時候 PFMERGE
就可以派上用場了,也就是同樣的用戶訪問這兩個頁面則只算做一次。
如下所示:Redis、MySQL 兩個 Bitmap 集合分別保存了兩個頁面用戶訪問數據。
PFADD Redis數據 user1 user2 user3
PFADD MySQL數據 user1 user2 user4
PFMERGE 數據庫 Redis數據 MySQL數據
PFCOUNT 數據庫 // 返回值 = 4
將多個 HyperLogLog 合併(merge)為一個 HyperLogLog , 合併後的 HyperLogLog 的基數接近於所有輸入 HyperLogLog 的可見集合(observed set)的並集。
user1、user2 都訪問了 Redis 和 MySQL,只算訪問了一次。
排序統計
Redis 的 4 個集合類型中(List、Set、Hash、Sorted Set),List 和 Sorted Set 就是有序的。
- List:按照元素插入 List 的順序排序,使用場景通常可以作為 消息隊列、最新列表、排行榜;
- Sorted Set:根據元素的 score 權重排序,我們可以自己決定每個元素的權重值。使用場景(排行榜,比如按照播放量、點贊數)。
最新評論列表
碼老濕,我可以利用 List 插入的順序排序實現評論列表
比如微信公眾號的後台回複列表(不要杠,舉例子),每一公眾號對應一個 List,這個 List 保存該公眾號的所有的用戶評論。
每當一個用戶評論,則利用 LPUSH key value [value ...]
插入到 List 隊頭。
LPUSH 碼哥位元組 1 2 3 4 5 6
接着再用 LRANGE key star stop
獲取列表指定區間內的元素。
> LRANGE 碼哥位元組 0 4
1) "6"
2) "5"
3) "4"
4) "3"
5) "2"
注意,並不是所有最新列表都能用 List 實現,對於因為對於頻繁更新的列表,list類型的分頁可能導致列表元素重複或漏掉。
比如當前評論列表 List ={A, B, C, D}
,左邊表示最新的評論,D 是最早的評論。
LPUSH 碼哥位元組 D C B A
展示第一頁最新 2 個評論,獲取到 A、B:
LRANGE 碼哥位元組 0 1
1) "A"
2) "B"
按照我們想要的邏輯來說,第二頁可通過 LRANGE 碼哥位元組 2 3
獲取 C,D。
如果在展示第二頁之前,產生新評論 E,評論 E 通過 LPUSH 碼哥位元組 E
插入到 List 隊頭,List = {E, A, B, C, D }。
現在執行 LRANGE 碼哥位元組 2 3
獲取第二頁評論發現, B 又出現了。
LRANGE 碼哥位元組 2 3
1) "B"
2) "C"
出現這種情況的原因在於 List 是利用元素所在的位置排序,一旦有新元素插入,List = {E,A,B,C,D}
。
原先的數據在 List 的位置都往後移動一位,導致讀取都舊元素。
小結
只有不需要分頁(比如每次都只取列表的前 5 個元素)或者更新頻率低(比如每天凌晨統計更新一次)的列表才適合用 List 類型實現。
對於需要分頁並且會頻繁更新的列表,需用使用有序集合 Sorted Set 類型實現。
另外,需要通過時間範圍查找的最新列表,List 類型也實現不了,需要通過有序集合 Sorted Set 類型實現,如以成交時間範圍作為條件來查詢的訂單列表。
排行榜
碼老濕,對於最新列表的場景,List 和 Sorted Set 都能實現,為啥還用 List 呢?直接使用 Sorted Set 不是更好,它還能設置 score 權重排序更加靈活。
原因是 Sorted Set 類型佔用的內存容量是 List 類型的數倍之多,對於列表數量不多的情況,可以用 Sorted Set 類型來實現。
比如要一周音樂榜單,我們需要實時更新播放量,並且需要分頁展示。
除此以外,排序是根據播放量來決定的,這個時候 List 就無法滿足了。
我們可以將音樂 ID 保存到 Sorted Set 集合中,score
設置成每首歌的播放量,該音樂每播放一次則設置 score = score +1。
ZADD
比如我們將《青花瓷》和《花田錯》播放量添加到 musicTop 集合中:
ZADD musicTop 100000000 青花瓷 8999999 花田錯
ZINCRBY
《青花瓷》每播放一次就通過 ZINCRBY
指令將 score + 1。
> ZINCRBY musicTop 1 青花瓷
100000001
ZRANGEBYSCORE
最後我們需要獲取 musicTop 前十播放量音樂榜單,目前最大播放量是 N ,可通過如下指令獲取:
ZRANGEBYSCORE musicTop N-9 N WITHSCORES
65哥:可是這個 N 我們怎麼獲取呀?
ZREVRANGE
可通過 ZREVRANGE key start stop [WITHSCORES]
指令。
其中元素的排序按 score
值遞減(從大到小)來排列。
具有相同 score
值的成員按字典序的逆序(reverse lexicographical order)排列。
> ZREVRANGE musicTop 0 0 WITHSCORES
1) "青花瓷"
2) 100000000
小結
即使集合中的元素頻繁更新,Sorted Set 也能通過 ZRANGEBYSCORE
命令準確地獲取到按序排列的數據。
在面對需要展示最新列表、排行榜等場景時,如果數據更新頻繁或者需要分頁顯示,建議優先考慮使用 Sorted Set。
聚合統計
指的就是統計多個集合元素的聚合結果,比如說:
- 統計多個元素的共有數據(交集);
- 統計兩個集合其中的一個獨有元素(差集統計);
- 統計多個集合的所有元素(並集統計)。
碼老濕,什麼樣的場景會用到交集、差集、並集呢?
Redis 的 Set 類型支持集合內的增刪改查,底層使用了 Hash 數據結構,無論是 add、remove 都是 O(1) 時間複雜度。
並且支持多個集合間的交集、並集、差集操作,利用這些集合操作,解決上邊提到的統計問題。
交集-共同好友
比如 QQ 中的共同好友正是聚合統計中的交集。我們將賬號作為 Key,該賬號的好友作為 Set 集合的 value。
模擬兩個用戶的好友集合:
SADD user:碼哥位元組 R大 Linux大神 PHP之父
SADD user:大佬 Linux大神 Python大神 C++菜雞
統計兩個用戶的共同好友只需要兩個 Set 集合的交集,如下命令:
SINTERSTORE user:共同好友 user:碼哥位元組 user:大佬
命令的執行後,「user:碼哥位元組」、「user:大佬」兩個集合的交集數據存儲到 user:共同好友這個集合中。
差集-每日新增好友數
比如,統計某個 App 每日新增註冊用戶量,只需要對近兩天的總註冊用戶量集合取差集即可。
比如,2021-06-01 的總註冊用戶量存放在 key = user:20210601
set 集合中,2021-06-02 的總用戶量存放在 key = user:20210602
的集合中。
如下指令,執行差集計算並將結果存放到 user:new
集合中。
SDIFFSTORE user:new user:20210602 user:20210601
執行完畢,此時的 user:new 集合將是 2021/06/02 日新增用戶量。
除此之外,QQ 上有個可能認識的人功能,也可以使用差集實現,就是把你朋友的好友集合減去你們共同的好友即是可能認識的人。
並集-總共新增好友
還是差集的例子,統計 2021/06/01 和 2021/06/02 兩天總共新增的用戶量,只需要對兩個集合執行並集。
SUNIONSTORE userid:new user:20210602 user:20210601
此時新的集合 userid:new 則是兩日新增的好友。
小結
Set 的差集、並集和交集的計算複雜度較高,在數據量較大的情況下,如果直接執行這些計算,會導致 Redis 實例阻塞。
所以,可以專門部署一個集群用於統計,讓它專門負責聚合計算,或者是把數據讀取到客戶端,在客戶端來完成聚合統計,這樣就可以規避由於阻塞導致其他服務無法響應。
往期推薦
Redis 高可用篇:你管這叫 Sentinel 哨兵集群原理
Redis 高可用篇:Cluster 集群能支撐的數據有多大?