⑴ oracle資料庫,搜索百萬級別數據分頁優化問題
oracle count 百萬級 分頁查詢記錄總數、總條數優化
Oracle count 百萬級 查詢記錄總數、總條數優化
最近做一個項目時,做分頁時,發現分頁查詢速州耐森度很慢,分頁我做的是兩次查詢,一次是查詢總數,一次是查詢分頁結果
[java] view plain
/** 查詢總記錄數 **/
SELECT
COUNT(id)
FROM
USER
order by
id
/** 查詢結果集 **/
select
*
from
( select
row_.*,
rownum rownum_
from
( select
id ,
user_number,
user_name,
user_password,
sex,
Registered_time,
last_login_time,
post
from
USER u
order by
u.id) row_
where
rownum <= ?
)
where
rownum_ > ?
user表中的記錄是128萬多條,這個是沒有查詢條件時的查詢,也就是用戶剛剛進入模塊時的查詢,發現查詢時間是2566ms~2152ms之間,單獨執行每條語句,發現第一條的執行時間在2000ms以上,在PL/SQL中執行的結果也證實了我的判斷。所以要對select count語句進行優化。
在網上找了很多優化方案,大多不盡人意,(分表的方式聽上去不錯,不過由於單表是歷史原因,這里就不作考慮)。最後找到一個比較令人滿意的答。就是在語句中加入 /*+ROWID(USER)*/或畝褲者/*+ INDEX(USER ID) */ 來提高查詢效果。
聽說這個就是強制使用索引統計結果?如果有哪位大蝦能把原理詳細告訴我,請來多多指點!
[java] view plain
SELECT /*+ROWID(USER)*/ count(*) FROM USER t
或者
SELECT /*+ INDEX(USER ID) */ count(*) FROM USER t
使用後,單條統計總數的查詢在800ms左右,分頁查詢結果基本在900ms~950ms之間,基本在一秒之內,達到了當初設計需求。
當然,這個是沒有加查詢條件的,當把查詢條件加入後,不管前面加不加強制索引,結果時間都在2000ms之間,所以,如果要進行有條件的查詢,就要在where條件中進行優化。冊畝特別注意條件欄位查詢前後順序。
⑵ MySQL 百萬級分頁優化(Mysql千萬級快速分頁)
一般剛開始學SQL的時候,會這樣寫
代碼如下:
SELECT * FROM table ORDER BY id LIMIT 1000, 10;
但在數據達到百萬級的時候,這樣寫會慢死
代碼如下:
SELECT * FROM table ORDER BY id LIMIT 1000000, 10;
也許耗費幾十秒
網上很多優化的方法是這樣的
代碼如下:
SELECT * FROM table WHERE id >= (SELECT id FROM table LIMIT 1000000, 1) LIMIT 10;
是的,速度提升到0.x秒了,看樣子還行了
可是,還不是完美的!
以下這句才是完美的!
代碼如下:
SELECT * FROM table WHERE id BETWEEN 1000000 AND 1000010;
比上面那句,還要再快5至10倍
另外,如果需要查詢 id 不是連續的一段,最佳的方法就是先找出 id ,然後用 in 查詢
代碼如下:
SELECT * FROM table WHERE id IN(10000, 100000, 1000000...);
再分享一點
查詢欄位一較長字元串的時候,表設計時要為該欄位多加一個欄位,如,存儲網址的欄位
查詢的時候,不要直接查詢字元串,效率低下,應該查看該字串的crc32或md5
如何優化Mysql千萬級快速分頁
Limit 1,111 數據大了確實有些性能上的問題,而通過各種方法給用上where id >= XX,這樣用上索引的id號可能速度上快點兒。By:jack
Mysql limit分頁慢的解決辦法(Mysql limit 優化,百萬至千萬條記錄實現快速分頁)
MySql 性能到底能有多高?用了php半年多,真正如此深入地去思考搭李告這個問題還是從前天開始。有過痛苦有過絕望,到現在充滿信心!MySql 這個資料庫絕對是適合dba級的高手去玩的,一般做一點1萬篇新聞的小型系統怎麼寫都知明可以,用xx框架可以實現快速開發。可是數據量到了10萬,百萬至千 萬,它的性能還能那麼高嗎?一點小小的失誤,可能造成整個系統的改寫,甚至更本系統無法正常運行!好了,不那麼多廢話了。用事實說話,看例子:
數 據表 collect ( id, title ,info ,vtype) 就這4個欄位,其中 title 用定長,info 用text, id 是逐漸,vtype是tinyint,vtype是索引。這是一個基本的新聞系統的簡單模型擾擾。現在往裡面填充數據,填充10萬篇新聞。
最後collect 為 10萬條記錄,資料庫表佔用硬碟1.6G。OK ,看下面這條sql語句:
select id,title from collect limit 1000,10; 很快;基本上0.01秒就OK,再看下面的
select id,title from collect limit 90000,10; 從9萬條開始分頁,結果?
8-9秒完成,my god 哪出問題了????其實要優化這條數據,網上找得到答案。看下面一條語句:
select id from collect order by id limit 90000,10; 很快,0.04秒就OK。 為什麼?因為用了id主鍵做索引當然快。網上的改法是:
select id,title from collect where id>=(select id from collect order by id limit 90000,1) limit 10;
這就是用了id做索引的結果。可是問題復雜那麼一點點,就完了。看下面的語句
select id from collect where vtype=1 order by id limit 90000,10; 很慢,用了8-9秒!
到 了這里我相信很多人會和我一樣,有崩潰感覺!vtype 做了索引了啊?怎麼會慢呢?vtype做了索引是不錯,你直接 select id from collect where vtype=1 limit 1000,10; 是很快的,基本上0.05秒,可是提高90倍,從9萬開始,那就是0.05*90=4.5秒的速度了。和測試結果8-9秒到了一個數量級。從這里開始有人 提出了分表的思路,這個和dis #cuz 論壇是一樣的思路。思路如下:
建一個索引表: t (id,title,vtype) 並設置成定長,然後做分頁,分頁出結果再到 collect 裡面去找info 。 是否可行呢?實驗下就知道了。
10萬條記錄到 t(id,title,vtype) 里,數據表大小20M左右。用
select id from t where vtype=1 order by id limit 90000,10; 很快了。基本上0.1-0.2秒可以跑完。為什麼會這樣呢?我猜想是因為collect 數據太多,所以分頁要跑很長的路。limit 完全和數據表的大小有關的。其實這樣做還是全表掃描,只是因為數據量小,只有10萬才快。OK, 來個瘋狂的實驗,加到100萬條,測試性能。
加了10倍的數據,馬上t表就到了200多M,而且是定長。還是剛才的查詢語句,時間是0.1-0.2秒完成!分表性能沒問題?錯!因為我們的limit還是9萬,所以快。給個大的,90萬開始
select id from t where vtype=1 order by id limit 900000,10; 看看結果,時間是1-2秒!
why ?? 分表了時間還是這么長,非常之郁悶!有人說定長會提高limit的性能,開始我也以為,因為一條記錄的長度是固定的,mysql 應該可以算出90萬的位置才對啊? 可是我們高估了mysql 的智能,他不是商務資料庫,事實證明定長和非定長對limit影響不大? 怪不得有人說 discuz到了100萬條記錄就會很慢,我相信這是真的,這個和資料庫設計有關!
難道MySQL 無法突破100萬的限制嗎???到了100萬的分頁就真的到了極限???
答案是: NO !!!! 為什麼突破不了100萬是因為不會設計mysql造成的。下面介紹非分表法,來個瘋狂的測試!一張表搞定100萬記錄,並且10G 資料庫,如何快速分頁!
好了,我們的測試又回到 collect表,開始測試結論是: 30萬數據,用分表法可行,超過30萬他的速度會慢到你無法忍受!當然如果用分表+我這種方法,那是絕對完美的。但是用了我這種方法後,不用分表也可以完美解決!
答 案就是:復合索引! 有一次設計mysql索引的時候,無意中發現索引名字可以任取,可以選擇幾個欄位進來,這有什麼用呢?開始的select id from collect order by id limit 90000,10; 這么快就是因為走了索引,可是如果加了where 就不走索引了。抱著試試看的想法加了 search(vtype,id) 這樣的索引。然後測試
select id from collect where vtype=1 limit 90000,10; 非常快!0.04秒完成!
再測試: select id ,title from collect where vtype=1 limit 90000,10; 非常遺憾,8-9秒,沒走search索引!
再測試:search(id,vtype),還是select id 這個語句,也非常遺憾,0.5秒。
綜上:如果對於有where 條件,又想走索引用limit的,必須設計一個索引,將where 放第一位,limit用到的主鍵放第2位,而且只能select 主鍵!
完美解決了分頁問題了。可以快速返回id就有希望優化limit , 按這樣的邏輯,百萬級的limit 應該在0.0x秒就可以分完。看來mysql 語句的優化和索引是非常重要的!
好了,回到原題,如何將上面的研究成功快速應用於開發呢?如果用復合查詢,我的輕量級框架就沒得用了。分頁字元串還得自己寫,那多麻煩?這里再看一個例子,思路就出來了:
select * from collect where id in (9000,12,50,7000); 竟然 0秒就可以查完!
mygod ,mysql 的索引竟然對於in語句同樣有效!看來網上說in無法用索引是錯誤的!
有了這個結論,就可以很簡單的應用於輕量級框架了:
代碼如下:
復制代碼代碼如下:
$db=dblink();
$db->pagesize=20;
$sql=」select id from collect where vtype=$vtype」;
$db->execute($sql);
$strpage=$db->strpage(); //將分頁字元串保存在臨時變數,方便輸出
while($rs=$db->fetch_array()){
$strid.=$rs['id'].','
}
$strid=substr($strid,0,strlen($strid)-1); //構造出id字元串
$db->pagesize=0; //很關鍵,在不注銷類的情況下,將分頁清空,這樣只需要用一次資料庫連接,不需要再開;
$db->execute(「select id,title,url,sTime,gTime,vtype,tag from collect where id in ($strid)」);
<?php while($rs=$db->fetch_array()): ?>
<?php echo $rs['id'];?>
<?php echo $rs['url'];?>
<?php echo $rs['sTime'];?>
<?php echo $rs['gTime'];?>
<?php echo $rs['vtype'];?>
」 target=」_blank」><?php echo $rs['title'];?>
<?php echo $rs['tag'];?>
<?php endwhile; ?>
<?php
echo $strpage;
⑶ java怎麼在數據超過百萬後分頁導出
用過POI的人都知道,在POI以前的版本中並不支持大數據量的處理,如果數據量過多還會常報OOM錯誤,
這時候調整JVM的配置參數
也不是一個好對策(註:
jdk在32位系統中支持的內存不能超過2個G,而在64位中沒有限制,但是在64位的系統中,性能並不是太好
),好在POI3.8版本新出來了一個SXSSFWorkbook對象,它就是用來解決大數據量以及超大數據量的導入導出操作的,但是SXSSFWorkbook只支持.xlsx格式,不支持.xls格式的Excel文件。
這里普及一下,在POI中使用HSSF對象時,excel 2003最多隻允許存6553數據,一般用來處理較少的數據量,這時對於百萬級別數據,Excel肯定
容納不了,而且在計算機性能稍低的機器上測試,就很容易導致堆溢出。當我升級到XSSF對象時,它可以直接支持excel2007以上版本,因為它採用
ooxml格式。這時excel可以支持1048576條數據,單個sheet表就支持近104
萬條數據了,雖然這時導出100萬數據能滿足要求,但使用XSSF測試後發現偶爾還是會發生堆溢出,所以也不適合百萬數據的導出。現在我們知道excel2007及以上版本可以輕松實現存儲百萬級別的數據,但是系統中的大量數據是如何能夠快速准確的導入到excel中這好像是個難題,對於一般的web系統,我們為了解決成本,基本都是使用的入門迅並級web伺服器tomcat,既然我們不推薦調整JVM的大小,那我們就要針對我們的代碼來解決我們要解決的問題。在POI3.8之後新增加了一個類,
SXSSFWorkbook
,採用當數據加工時不是類似前面版本的對象,它空帶可以控制excel數據佔用的內存,他通過控制在內存中的行數來實現資源管理,即當創建對象超過了設定的行數,它會自動刷新內存,將數據寫入文件,
這樣導致列印時,佔用的CPU,和內存很少。但有人會說了,我用過這個類啊,他好像並不能完全解決,當數據量超過一定量後還是會內存溢出的,而且時間還很長。對你只是用了這個類,但是你並沒有針對你的需求進行相應的設計,僅僅是用了,所以接下來我要說的問題就是,如何通過SXSSFWorkbook以及相應的寫入設計來實現百萬級別的數據快速寫入。
我先舉個例子,以前我們[資料庫
中存在大量的數據,我們要查詢,怎麼辦?我們在沒有經過設計的斗昌蘆時候是這樣來處理的,先寫一個集合,然後執行jdbc,將返回的結果賦值給list,然後再返回到頁面上,但是當數據量大的時候,就會出現數據無法返回,內存溢出的情況,於是我們在有限的時間和空間下,通過分頁將數據一頁一頁的顯示出來,這樣可以避免了[大數據
量數據對內存的佔用,也提高了用戶的體驗,在我們要導出的百萬數據也是一個道理,內存突發性佔用,我們可以限制導出數據所佔用的內存,
這里我先建立一個list容器,list中開辟10000行的存儲空間,每次存儲10000行,用完了將內容清空,然後重復利用
,這樣就可以有效控制內存,所以我們的設計思路就基本形成了,所以分頁數據導出共有以下3個步驟:
1、求資料庫中待導出數據的行數
2、根據行數求數據提取次數
3、按次數將數據寫入文件
⑷ 如何優化一個有100萬條記錄的資料庫表
一:如果有唯一欄位的,創建主鍵和索引,提高查詢主鍵欄位效率;
二:如果這些數據是變更的,可以通過時間來創建分區;
三:如果部分老數和做據都是不需要的數據(不常用),可以定期將老數據備份到其他位置;
四:如果是查詢的話,可以通過分頁查詢的形式進行,渣納不要喚梁衡一次性讀取過多數據。
⑸ wps超過100萬條怎麼拆分
將WPS文件超過100萬條的數據拆分成多個較小的文件通常是一個不錯的解決方案。這可以通過使用WPS Writer中的拆分文檔功能來實現。在WPS Writer中,您可以打開超過100萬條的文件,然後選擇「文件」菜單,在下拉菜單中選擇「拆分」,然後按照向導的指引進行操作,選擇您所需的方式來拆分文件。您可以選擇按頁數或按文件大小來拆分文件,或者您可以仔逗選擇將文件拆分成固定大伏蘆小的塊。拆分完成後,您將獲得多個較小的WPS文檔文件,您可以單獨對它們進行處理,例如合並這些文件或將它們轉換為其他格式的文件缺戚帶。
⑹ mysql 數據量大的表如何做分頁查詢
直接用limit start, count分頁語句, 也是我程序中用的方法:
select * from proct limit start, count
當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始分頁的執行時間(廳者每頁取20條), 如下:
select * from proct limit 10, 20 0.016秒
select * from proct limit 100, 20 0.016秒
select * from proct limit 1000, 20 0.047秒
select * from proct limit 10000, 20 0.094秒
我們已經看出隨著起始記錄的增加,時間也隨著增大, 這說明分頁語句limit跟起始頁碼是山棚有很大關系的,那麼我們把起始記錄改為40w看下(也就是記錄的一般左右) select * from proct limit 400000, 20 3.229秒
再看我們取最後一頁記錄的時間
select * from proct limit 866613, 20 37.44秒
難怪搜索引擎抓取我們頁面的時候經常逗伏則會報超時,像這種分頁最大的頁碼頁顯然這種時
間是無法忍受的。
從中我們也能總結出兩件事情:
1)limit語句的查詢時間與起始記錄的位置成正比
2)mysql的limit語句是很方便,但是對記錄很多的表並不適合直接使用。
⑺ 1000W以上的數據如何能高效率地進行分頁顯示
1、數據匯總
2、數據裡面數據透視
3、視圖里岩瞎面分頁預覽
4、插入函數,VLOOUP
以上四種方法畝棗前,望迅清採納
⑻ MYSQL百萬條數據下標簽、文章的分頁查詢排序的高效方法有哪些
文章:content表儲存:content_id[自增id],content[內容],dateline[發布時中咐間戳],ispublic[是否發布]
關系:tag_content表儲存:戚侍tag_id[標簽id],content_id[文章id]
網站前段,訪問標簽頁面,需要查詢出這個標簽下的所有文章,需要篩選是否發布賣仔純,需要按照時間排序。
通過一般方法left join + 聯合索引 速度仍然十分不理想。
請教在百萬級文章,萬級標簽,千萬級關系下。如果高效的實現某一標簽下文章的分頁排序查詢。(分頁可只顯示前100頁,不用全部可訪問)
以前數據量沒這么大,聯合索引+left join 沒問題。在大數據量的時候,速度瓶頸在於按照時間戳、瀏覽量等排序。
⑼ excel2013如何在100萬行中每隔58行自動插入一個分頁符
Sub InsertPB()
'和磨旁喚橡插入
i0 = 20 '初始行
For i = 0 To Int((1048576 - i0) /游渣 58)
ActiveSheet.HPageBreaks.Add Before:=Cells(i * 58 + i0, 1)
Next
End Sub
Sub DeletePB()
'刪除
ActiveSheet.ResetAllPageBreaks
End Sub