資料庫存數據時,邏輯上防重了為啥還會出現重複記錄?

  • 2019 年 11 月 8 日
  • 筆記

在很多異常情況下,比如高並發、網路糟糕的時候,資料庫里偶爾會出現重複的記錄。

假如現在有一張書籍表,結構類似這樣

+----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+

在異常情況下,可能會出現下面這樣的記錄

+----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  |  2 | 人類簡史     |  |  3 | 人類簡史     |  +----+--------------+

但是,想了想,自己在處理相關數據的時候也加了判重的相關邏輯,比如,新增時當圖書 name 相同時,會提示圖書重複而返回。

初次遇到這個情況的時候,感覺有點摸不著頭腦,後面想了想,還是理清了,其實這和資料庫的事務隔離級別有一定關係。

先簡單說下資料庫事務的 4 個隔離級別,然後重現下上述問題,最後說說解決辦法。

1 資料庫事務的 4 個隔離級別

1.1 未提交讀

顧名思義,當事務隔離級別處於這個設置的時候,不同事務能讀取其它事務中未提交的數據。

便於說明,我開了兩個客戶端(A 以及 B),並設置各自的隔離級別為未提交讀。(並沒有全局設置)

設置隔離級別命令

SET [SESSION | GLOBAL] TRANSACTION ISOLATION LEVEL {READ UNCOMMITTED | READ COMMITTED | REPEATABLE READ | SERIALIZABLE}

好了,開始。

Client A

mysql> SET SESSION TRANSACTION ISOLATION LEVEL READ UNCOMMITTED;  Query OK, 0 rows affected (0.00 sec)    mysql> SELECT @@session.tx_isolation;  +------------------------+  | @@session.tx_isolation |  +------------------------+  | READ-UNCOMMITTED       |  +------------------------+  1 row in set (0.00 sec)    mysql> start transaction;  Query OK, 0 rows affected (0.01 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+  1 row in set (0.00 sec)    mysql> insert into books(name) values('人類簡史');  Query OK, 1 row affected (0.01 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  |  4 | 人類簡史     |  +----+--------------+  2 rows in set (0.00 sec)

當 A 中的事務沒有關閉的時候,我們去 B 中看下數據

Client B

mysql> SET SESSION TRANSACTION ISOLATION LEVEL READ UNCOMMITTED;  Query OK, 0 rows affected (0.00 sec)    mysql> SELECT @@session.tx_isolation;  +------------------------+  | @@session.tx_isolation |  +------------------------+  | READ-UNCOMMITTED       |  +------------------------+  1 row in set (0.00 sec)    mysql> start transaction;  Query OK, 0 rows affected (0.00 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  |  4 | 人類簡史     |  +----+--------------+  2 rows in set (0.00 sec)

B 中可以讀取 A 未提交的數據,所謂未提交讀就是這樣。

最後,記得把各個事務提交。

Client A & Client B

mysql> commit;

1.2 提交讀

不能事務可以讀取其它事務中已經提交的數據。

篇幅問題,這裡我就不貼出設置隔離級別的語句,測試某個隔離級別的時候,默認已經設置好該級別。

Client A

mysql> start transaction;  Query OK, 0 rows affected (0.00 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+  1 row in set (0.00 sec)    mysql> insert into books(name) values('人類簡史');  Query OK, 1 row affected (0.00 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  |  5 | 人類簡史     |  +----+--------------+  2 rows in set (0.00 sec)

A 沒提交,在 B 裡面去看下數據

Client B

mysql> start transaction;  Query OK, 0 rows affected (0.00 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+  1 row in set (0.00 sec)

和預期一樣,A 中未提交的數據在 B 中看不到。

A 中提交事務

Client A

mysql> commit;

在 B 中看下

Client B

mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  |  5 | 人類簡史     |  +----+--------------+  2 rows in set (0.00 sec)    mysql> commit;  Query OK, 0 rows affected (0.00 sec)

B 中能看到 A 中提交的數據。

1.3 可重複讀

細心的朋友可能會發現一個問題,那就是在 B 中的同一個事務讀同一個表,得到的結果卻不一致,開始只有 1 條,後面有 2 條,而如果沒有這個問題的話,也就是可重複讀了。

我們來驗證下

Client A

mysql> start transaction;  Query OK, 0 rows affected (0.00 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+  1 row in set (0.00 sec)    mysql> insert into books(name) values('人類簡史');  Query OK, 1 row affected (0.01 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  |  6 | 人類簡史     |  +----+--------------+  2 rows in set (0.00 sec)

Client B

mysql> start transaction;  Query OK, 0 rows affected (0.00 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+  1 row in set (0.00 sec)

Client A

mysql> commit  Query OK, 0 rows affected (0.00 sec)

Client B

mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+  1 row in set (0.00 sec)

和預期一致。B 中事務沒有受到 A 中事務的提交影響,讀取的數據和事務剛開始的時候一致,books 中都只有一條數據,這就是可重複讀。

當然,B 在自己的事務中做修改,肯定是可見的。

Client B

mysql> insert into books(name) value ('時間簡史');  Query OK, 1 row affected (0.00 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  |  8 | 時間簡史     |  +----+--------------+  2 rows in set (0.00 sec)    mysql> commit;  Query OK, 0 rows affected (0.00 sec)

1.4 串列化

這是隔離級別最嚴格的一級,在該級別中,不同事務中的讀寫會相互阻塞。

Client A

mysql> start transaction;  Query OK, 0 rows affected (0.00 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+  1 row in set (0.00 sec)

當 A 未提交的時候在 B 中對同一個表進行寫

Client B

mysql> start transaction;  Query OK, 0 rows affected (0.00 sec)    mysql> select * from books;  +----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+  1 row in set (0.00 sec)    mysql> insert into books(name) value ('人類簡史');  ERROR 1205 (HY000): Lock wait timeout exceeded; try restarting transaction

由於不同事務中的讀寫相互阻塞,所以出現了上面超時的情況。

如果 A 中提交事務

Client A

mysql> commit;  Query OK, 0 rows affected (0.00 sec)

那麼在 B 中就能正常寫了

Client B

mysql> insert into books(name) value ('人類簡史');  Query OK, 1 row affected (0.00 sec)    mysql> commit;  Query OK, 0 rows affected (0.01 sec)

同理,在 A 中開啟事務並向 books 中插入一條記錄後不提交,B 中開啟事務並對該表進行讀操作,也會超時。當 A 中的事務提交後,B 中對 books 的讀操作就沒有問題了。

2 重現問題

由於 MySQL 的 Innodb 的默認事務隔離級別為可重複讀,也就導致了判重邏輯可能會出現問題,我們來重現一下。

現在,資料庫的數據是這樣的

+----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  +----+--------------+

後端邏輯類似這樣的

try:      book_name = '人類簡史'      book = get_by_name(book_name)      if book:          raise Exception(f'圖書 {book_name} 已存在')        # 新增操作      # 其它操作        db.session.commit()      return {'success': True}  except Exception as e:      db.session.rollback()      return {'success': False, 'msg': f'新增圖書失敗 {e}'}

當兩個用戶輸入書名「人類簡史」並提交後,同時有兩個執行緒執行這段邏輯,也就相當於上面兩個客戶端同時開啟了事務,我們以這兩個客戶端來說明問題

Client A

mysql> start transaction;  Query OK, 0 rows affected (0.00 sec)    mysql> select * from books where name = '人類簡史';  Empty set (0.00 sec)    mysql> insert into books(name) values('人類簡史');  Query OK, 1 row affected (0.00 sec)

A 中檢測圖書不存在,然後插入,但是由於「其它操作」由於網路或者其它原因太費時間,導致事務提交延遲。

這時在 B 中執行類似操作

Client B

mysql> start transaction;  Query OK, 0 rows affected (0.00 sec)    mysql> select * from books where name = '人類簡史';  Empty set (0.00 sec)    mysql> insert into books(name) values('人類簡史');  Query OK, 1 row affected (0.00 sec)

由於事務隔離級別是可重複讀的,B 中無法讀取 A 中未提交的數據,所以判重邏輯順利通過,也插入了同一本書。(也就是說隔離級別在提交讀及以上都有可能出現這個問題)

最後 A 和 B 都提交後

Client A & Clinet B

mysql> commit;  Query OK, 0 rows affected (0.01 sec)

就出現了重複記錄了

+----+--------------+  | id | name         |  +----+--------------+  |  1 | 世界簡史     |  | 12 | 人類簡史     |  | 13 | 人類簡史     |  +----+--------------+

3 怎麼解決

3.1 資料庫層面

從底層進行限制,對 name 添加唯一索引後,插入重複記錄會報錯,簡單粗暴的解決了這個問題。

3.2 程式碼層面

加唯一索引能解決,但是總覺得程式碼不夠完整,其實在程式碼層面也可以解決這個問題。

如果我們在接收請求的時候如果碰到關鍵參數相同的請求,我們可以直接拒絕,返回類似「操作進行中」的響應,這樣也就從源頭上解決了這個問題。

實現上面的思路也很簡單,藉助 redis 的 setnx 即可。

book_name = request.form.get('book_name', '')  if not book_name:      reutrn json.dumps({'success': False, 'msg': '請填寫書名'})    redis_key = f'add_book_{book_name}'  set_res = redis_client.setnx(redis_key, 1)  if not set_res:      reutrn json.dumps({'success': False, 'msg': '操作進行中'})    add_res = add_book(book_name)  # 添加操作    redis_client.delete(redis_key)  return json.dumps(add_res)

如果類似場景比較多,可以考慮把 redis 的操作封裝成一個裝飾器,讓程式碼能復用起來,這裡不再贅述。

4 小結

由於資料庫隔離級別的原因,一些數據就算是邏輯上進行防重了,也有可能出現重複記錄。解決這個問題,可以在資料庫層面加唯一索引解決,也可以在程式碼層面進行解決。

原文部落格:www.kevinbai.com
關注「小小後端」公眾號,更多乾貨等著你喔!