100W的數據對于很多朋友來說算小菜了,但今天我就想到創建一個大量數據的測試環境,于是找了一下怎么插入100W條數據,我用的是20個字段,對比一下,首先是用 mysql 的存儲過程弄的,代碼如下:
- mysql>delimiter $
- mysql>SET AUTOCOMMIT = 0$$
- mysql> create procedure test()
- begin
- declare i decimal (10) default 0 ;
- dd:loop
- INSERT INTO `million` (`categ_id`, `categ_fid`, `SortPath`, `address`, `p_identifier`, `pro_specification`, `name`, `add_date`, `picture_url`, `thumb_url`, `is_display_front`, `create_html_time`, `hit`, `buy_sum`, `athor`, `templete _style`, `is_hot`, `is_new`, `is_best`) VALUES
- (268, 2, '0,262,268,', 0, '2342', '423423', '123123', '2012-01-09 09:55:43', 'upload/product/20111205153432_53211.jpg', 'upload/product/thumb_20111205153432_53211.jpg', 1, 0, 0, 0, 'admin', '0', 0, 0, 0);
- commit; --Vevb.com
- set i = i+1;
- if i= 1000000 then leave dd;
- end if;
- end loop dd ;
- end;$
- mysql>delimiter ;
- mysql> call test;
結果我們看了用了58分鐘,這也太費時差了吧.
- mysql> call test;
- Query OK, 0 rows affected (58 min 30.83 sec)
非常耗時,于是我又找了一個方法,先用PHP代碼生成數據,再導入,代碼如下:
- <?php
- $t=mktime();
- set_time_limit(1000);
- $myFile="e:/insert.sql";
- $fhandler=fopen($myFile,'wb');
- if($fhandler){
- $sql="268t2t'0,262,268,'t0t '2342't'423423't'123123't'23423423't'2012-01-09 09:55:43't'upload/product/20111205153432_53211.jpg't'upload/product/thumb_20111205153432_53211.jpg'tNULLtNULLt38t'件't''t123t123t0";
- $i=0;
- while($i<1000000)//1,000,000
- {
- $i++;
- fwrite($fhandler,$sql."rn");
- }
- echo"寫入成功,耗時:",mktime()-$t;
- }
- ?>
然后再導入,代碼如下:
- LOAD DATA local INFILE 'e:/insert.sql' INTO TABLE tenmillion(`categ_id`, `categ_fid`, `SortPath`, `address`, `p_identifier`, `pro_specification`, `name`, `description`, `add_date`, `picture_url`, `thumb_url`, `shop_url`, `shop_thumb_url`, `brand_id`, `unit`, `square_meters_unit`, `market_price`, `true_price`, `square_meters_price`);
結果不到1分鐘,100萬的數據就快速的導入了,注意字段不再以逗號分割,以t分割,條記錄以rn分割,結果我插入10次數據,100W平均只要1分鐘搞定.
總結:在大數據量處理時我們最好利用第三方插件一實現數據備份或直接在服務器上進行備份,用mysql自帶的工具有時確實不理想.
新聞熱點
疑難解答