.Net Core導入千萬級數據至Mysql
最近在工作中,涉及到一個數據遷移功能,從一個txt文本文件導入到MySQL功能。
數據遷移,在互聯網企業可以說經常碰到,而且涉及到千萬級、億級的數據量是很常見的。大數據量遷移,這裡面就涉及到一個問題:高性能的插入數據。
今天我們就來談談MySQL怎麼高性能插入千萬級的數據。
我們一起對比以下幾種實現方法:
前期準備
訂單測試表
測試環境
作業系統:Window 10 專業版
CPU:Inter(R) Core(TM) i7-8650U CPU @1.90GHZ 2.11 GHZ
記憶體:16G
MySQL版本:5.7.26
實現方法:
1、單條數據插入
這是最普通的方式,通過循環一條一條的導入數據,這個方式的缺點很明顯就是每一次都需要連接一次資料庫。
實現程式碼:
上面的例子,我們是批量導入10萬條數據,需要連接10萬次資料庫。我們把SQL語句改為1000條拼接為1條,這樣就能減少資料庫連接,實現程式碼修改如下:
通過優化後,原本需要10萬次連接資料庫,只需連接100次。從最終運行效果看,由於資料庫是在同一台伺服器,不涉及網路傳輸,性能提升不明顯。
2、合併數據插入
在MySQL同樣也支援,通過合併數據來實現批量數據導入。實現程式碼:
通過這種方式插入操作明顯能夠提高程式的插入效率。雖然第一種方法通過優化後,同樣的可以減少資料庫連接次數,但第二種方法:合併後日誌量(MySQL的binlog和innodb的事務讓日誌)減少了,降低日誌刷盤的數據量和頻率,從而提高效率。同時也能減少SQL語句解析的次數,減少網路傳輸的IO。
3、MySqlBulkLoader插入
MySQLBulkLoader也稱為LOAD DATA INFILE,它的原理是從文件讀取數據。所以我們需要將我們的數據集保存到文件,然後再從文件裡面讀取。
實現程式碼:
注意:MySQL資料庫配置需開啟:允許文件導入。配置如下:
secure_file_priv=
性能測試對比
針對上面三種方法,分別測試10萬、20萬、100萬、1000萬條數據記錄,最終性能入如下:
最後
通過測試數據看,隨著數據量的增大,MySqlBulkLoader的方式表現依舊良好,其他方式性能下降比較明顯。MySqlBulkLoader的方式完全可以滿足我們的需求。
文章首發於公眾號【編程樂趣】,歡迎大家關注。