MySQL批量SQL插入性能優化

2020年11月3日14:09:07 發表評論 2,910 ℃

對于一些數據量較大的系統,數據庫面臨的問題除了查詢效率低下,還有就是數據入庫時間長。特別像報表系統,每天花費在數據導入上的時間可能會長達幾個小時或十幾個小時之久。因此,優化數據庫插入性能是很有意義的。

阿湯博客經過對MySQL InnoDB的一些性能測試,發現一些可以提高insert效率的方法,供大家參考參考。

1、一條SQL語句插入多條數據

常用的插入語句如:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('1', 'userid_1', 'content_1', 1);

修改成:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('0', 'userid_0', 'content_0', 0), ('1', 'userid_1', 'content_1', 1);

修改后的插入操作能夠提高程序的插入效率。這里第二種SQL執行效率高的主要原因是合并后日志量(MySQL的binlog和innodb的事務讓日志)減少了,降低日志刷盤的數據量和頻率,從而提高效率。通過合并SQL語句,同時也能減少SQL語句解析的次數,減少網絡傳輸的IO。

這里提供一些測試對比數據,分別是進行單條數據的導入與轉化成一條SQL語句進行導入,分別測試1百、1千、1萬條數據記錄。

記錄數 單條數據插入 合并數據
100 0.109s 0.009s
1000 1.432s 0.026s
10000 13.093s 0.755s

注:數據基礎記錄數為50萬

2、在事務中進行插入處理

把插入修改成:

START TRANSACTION;
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('1', 'userid_1', 'content_1', 1);
...
COMMIT;

使用事務可以提高數據的插入效率,這是因為進行一個INSERT操作時,MySQL內部會建立一個事務,在事務內才進行真正插入處理操作。通過使用事務可以減少創建事務的消耗,所有插入都在執行后才進行提交操作。

這里也提供了測試對比,分別是不使用事務與使用事務在記錄數為1百、1千、1萬的情況。

3、數據有序插入

數據有序的插入是指插入記錄在主鍵上是有序排列,例如datetime是記錄的主鍵:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('1', 'userid_1', 'content_1', 1);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('2', 'userid_2', 'content_2',2);

修改成:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('1', 'userid_1', 'content_1', 1);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('2', 'userid_2', 'content_2',2);

由于數據庫插入時,需要維護索引數據,無序的記錄會增大維護索引的成本。我們可以參照InnoDB使用的B+tree索引,如果每次插入記錄都在索引的最后面,索引的定位效率很高,并且對索引調整較小;如果插入的記錄在索引中間,需要B+tree進行分裂合并等處理,會消耗比較多計算資源,并且插入記錄的索引定位效率會下降,數據量較大時會有頻繁的磁盤操作。

下面提供隨機數據與順序數據的性能對比,分別是記錄為1百、1千、1萬、10萬、100萬。

從測試結果來看,該優化方法的性能有所提高,但是提高并不是很明顯。

記錄數 單條數據插入(隨機) 單條數據插入(有序)
100 0.137s 0.122s
1000 1.155s 1.277s
1萬 13.118s 13.197s
10萬 2m11.274s 2m10.554s
100萬 21m51.522s 21m47.174s

注:數據基礎記錄數為50萬

4、性能綜合測試

這里提供了同時使用上面三種方法進行INSERT效率優化的測試。

記錄數 單條數據插入(隨機) 合并數據+事務(隨機) 合并數據+事務(有序)
100 0.137s 0.024s 0.263s
1000 1.155s 0.058s 0.056s
1萬 13.118s 0.228s 0.319s
10萬 2m11.274s 4.546s 2.830s
100萬 21m51.522s 38.851s 27.774s
1000萬 224m54.935s 21m13.036s 4m19.593s
2000萬 - 180m41.477s 8m44.697s

從測試結果可以看到,合并數據+事務的方法在較小數據量時,性能提高是很明顯的,數據量較大時(1千萬以上),性能會急劇下降,這是由于此時數據量超過了innodb_buffer的容量,每次定位索引涉及較多的磁盤讀寫操作,性能下降較快。而使用合并數據+事務+有序數據的方式在數據量達到千萬級以上表現依舊是良好,在數據量較大時,有序數據索引定位較為方便,不需要頻繁對磁盤進行讀寫操作,所以可以維持較高的性能。

注意事項:

1、SQL語句是有長度限制,在進行數據合并在同一SQL中務必不能超過SQL長度限制,通過max_allowed_packet配置可以修改,默認是1M,測試時修改為8M。

2、事務需要控制大小,事務太大可能會影響執行的效率。MySQL有innodb_log_buffer_size配置項,超過這個值會把innodb的數據刷到磁盤中,這時,效率會有所下降。所以比較好的做法是,在數據達到這個這個值前進行事務提交。

【騰訊云】云服務器、云數據庫、COS、CDN、短信等云產品特惠熱賣中

發表評論

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: