『壹』 MySQL處理達到百萬級數據時,如何優化
首先,數據量大的時候,應盡量避免全表掃描,應考慮在 where 及 order by 涉及的列上建立索引,建索引可以大大加快數據的檢索速度。 但是,有些情況索引是不會起效的:
1、應盡量避免在 where 子句中使用!=或<>操作符,否則將引擎放棄使用索引而進行全表掃描。
2、應盡量避免在 where 子句中對欄位進行 null 值判斷,否則將導致引擎放棄使用索引而進行全表掃描,如:
select id from t where num is null
可以在num上設置默認值0,確保表中num列沒有null值,然後這樣查詢:
select id from t where num=0
3、盡量避免在 where 子句中使用 or 來連接條件,否則將導致引擎放棄使用索引而進行全表掃描,如:
select id from t where num=10 or num=20
可以這樣查詢:
select id from t where num=10
union all
select id from t where num=20
4、下面的查詢也將導致全表掃描:
select id from t where name like 『%abc%』
若要提高效率,可以考慮全文檢索。
5、in 和 not in 也要慎用,否則會導致全表掃描,如:
select id from t where num in(1,2,3)
對於連續的數值,能用 between 就不要用 in 了:
select id from t where num between 1 and 3
6、如果在 where 子句中使用參數,也會導致全表掃描。因為SQL只有在運行時才會解析局部變數,但優化程序不能將訪問計劃的選擇推遲到運行時;它必須在編譯時進行選擇。然而,如果在編譯時建立訪問計劃,變數的值還是未知的,因而無法作為索引選擇的輸入項。如下面語句將進行全表掃描:
select id from t where num=@num
可以改為強制查詢使用索引:
select id from t with(index(索引名)) where num=@num
7、應盡量避免在 where 子句中對欄位進行表達式操作,這將導致引擎放棄使用索引而進行全表掃描。如:
select id from t where num/2=100
應改為:
select id from t where num=100*2
8、應盡量避免在where子句中對欄位進行函數操作,這將導致引擎放棄使用索引而進行全表掃描。如:
select id from t where substring(name,1,3)=』abc』–name以abc開頭的id
select id from t where datediff(day,createdate,』2005-11-30′)=0–』2005-11-30′生成的id
應改為:
select id from t where name like 『abc%』
select id from t where createdate>=』2005-11-30′ and createdate<』2005-12-1′
9、不要在 where 子句中的「=」左邊進行函數、算術運算或其他表達式運算,否則系統將可能無法正確使用索引。
10、在使用索引欄位作為條件時,如果該索引是復合索引,那麼必須使用到該索引中的第一個欄位作為條件時才能保證系統使用該索引,否則該索引將不會被使用,並且應盡可能的讓欄位順序與索引順序相一致。
11、不要寫一些沒有意義的查詢,如需要生成一個空表結構:
select col1,col2 into #t from t where 1=0
這類代碼不會返回任何結果集,但是會消耗系統資源的,應改成這樣:
create table #t(…)
12、很多時候用 exists 代替 in 是一個好的選擇:
select num from a where num in(select num from b)
用下面的語句替換:
select num from a where exists(select 1 from b where num=a.num)
『貳』 如何提高上百萬級記錄MySQL資料庫查詢速度
關於mysql處理百萬級以上的數據時如何提高其查詢速度的方法
最近一段時間由於工作需要,開始關注針對Mysql資料庫的select查詢語句的相關優化方法。
由於在參與的實際項目中發現當mysql表的數據量達到百萬級時,普通SQL查詢效率呈直線下降,而且如果where中的查詢條件較多時,其查詢速度簡直無法容忍。曾經測試對一個包含400多萬條記錄(有索引)的表執行一條條件查詢,其查詢時間竟然高達40幾秒,相信這么高的查詢延時,任何用戶都會抓狂。因此如何提高sql語句查詢效率,顯得十分重要。以下是網上流傳比較廣泛的30種SQL查詢語句優化方法:
1、應盡量避免在 where 子句中使用!=或<>操作符,否則將引擎放棄使用索引而進行全表掃描。
2、對查詢進行優化,應盡量避免全表掃描,首先應考慮在 where 及 order by 涉及的列上建立索引。
3、應盡量避免在 where 子句中對欄位進行 null 值判斷,否則將導致引擎放棄使用索引而進行全表掃描,如:
select id from t where num is null
可以在num上設置默認值0,確保表中num列沒有null值,然後這樣查詢:
select id from t where num=0
4、盡量避免在 where 子句中使用 or 來連接條件,否則將導致引擎放棄使用索引而進行全表掃描,如:
select id from t where num=10 or num=20
可以這樣查詢:
select id from t where num=10
union all
select id from t where num=20
5、下面的查詢也將導致全表掃描:(不能前置百分號)
select id from t where name like 『%c%』
若要提高效率,可以考慮全文檢索。
6、in 和 not in 也要慎用,否則會導致全表掃描,如:
select id from t where num in(1,2,3)
對於連續的數值,能用 between 就不要用 in 了:
select id from t where num between 1 and 3
7、如果在 where 子句中使用參數,也會導致全表掃描。因為SQL只有在運行時才會解析局部變數,但優化程序不能將訪問計劃的選擇推遲到運行時;它必須在編譯時進行選擇。然 而,如果在編譯時建立訪問計劃,變數的值還是未知的,因而無法作為索引選擇的輸入項。如下面語句將進行全表掃描:
select id from t where num=@num
可以改為強制查詢使用索引:
select id from t with(index(索引名)) where num=@num
8、應盡量避免在 where 子句中對欄位進行表達式操作,這將導致引擎放棄使用索引而進行全表掃描。如:
select id from t where num/2=100
應改為:
select id from t where num=100*2
9、應盡量避免在where子句中對欄位進行函數操作,這將導致引擎放棄使用索引而進行全表掃描。如:
select id from t where substring(name,1,3)=』abc』–name以abc開頭的id
select id from t where datediff(day,createdate,』2005-11-30′)=0–』2005-11-30′生成的id
應改為:
select id from t where name like 『abc%』
select id from t where createdate>=』2005-11-30′ and createdate<』2005-12-1′
10、不要在 where 子句中的「=」左邊進行函數、算術運算或其他表達式運算,否則系統將可能無法正確使用索引。
11、在使用索引欄位作為條件時,如果該索引是復合索引,那麼必須使用到該索引中的第一個欄位作為條件時才能保證系統使用該索引,否則該索引將不會被使 用,並且應盡可能的讓欄位順序與索引順序相一致。
12、不要寫一些沒有意義的查詢,如需要生成一個空表結構:
select col1,col2 into #t from t where 1=0
這類代碼不會返回任何結果集,但是會消耗系統資源的,應改成這樣:
create table #t(…)
13、很多時候用 exists 代替 in 是一個好的選擇:
select num from a where num in(select num from b)
用下面的語句替換:
select num from a where exists(select 1 from b where num=a.num)
14、並不是所有索引對查詢都有效,SQL是根據表中數據來進行查詢優化的,當索引列有大量數據重復時,SQL查詢可能不會去利用索引,如一表中有欄位 sex,male、female幾乎各一半,那麼即使在sex上建了索引也對查詢效率起不了作用。
15、索引並不是越多越好,索引固然可以提高相應的 select 的效率,但同時也降低了 insert 及 update 的效率,因為 insert 或 update 時有可能會重建索引,所以怎樣建索引需要慎重考慮,視具體情況而定。一個表的索引數最好不要超過6個,若太多則應考慮一些不常使用到的列上建的索引是否有 必要。
16.應盡可能的避免更新 clustered 索引數據列,因為 clustered 索引數據列的順序就是表記錄的物理存儲順序,一旦該列值改變將導致整個表記錄的順序的調整,會耗費相當大的資源。若應用系統需要頻繁更新 clustered 索引數據列,那麼需要考慮是否應將該索引建為 clustered 索引。
17、盡量使用數字型欄位,若只含數值信息的欄位盡量不要設計為字元型,這會降低查詢和連接的性能,並會增加存儲開銷。這是因為引擎在處理查詢和連接時會 逐個比較字元串中每一個字元,而對於數字型而言只需要比較一次就夠了。
18、盡可能的使用 varchar/nvarchar 代替 char/nchar ,因為首先變長欄位存儲空間小,可以節省存儲空間,其次對於查詢來說,在一個相對較小的欄位內搜索效率顯然要高些。
19、任何地方都不要使用 select * from t ,用具體的欄位列表代替「*」,不要返回用不到的任何欄位。
20、盡量使用表變數來代替臨時表。如果表變數包含大量數據,請注意索引非常有限(只有主鍵索引)。
21、避免頻繁創建和刪除臨時表,以減少系統表資源的消耗。
22、臨時表並不是不可使用,適當地使用它們可以使某些常式更有效,例如,當需要重復引用大型表或常用表中的某個數據集時。但是,對於一次性事件,最好使 用導出表。
23、在新建臨時表時,如果一次性插入數據量很大,那麼可以使用 select into 代替 create table,避免造成大量 log ,以提高速度;如果數據量不大,為了緩和系統表的資源,應先create table,然後insert。
24、如果使用到了臨時表,在存儲過程的最後務必將所有的臨時表顯式刪除,先 truncate table ,然後 drop table ,這樣可以避免系統表的較長時間鎖定。
25、盡量避免使用游標,因為游標的效率較差,如果游標操作的數據超過1萬行,那麼就應該考慮改寫。
26、使用基於游標的方法或臨時表方法之前,應先尋找基於集的解決方案來解決問題,基於集的方法通常更有效。
27、與臨時表一樣,游標並不是不可使用。對小型數據集使用 FAST_FORWARD 游標通常要優於其他逐行處理方法,尤其是在必須引用幾個表才能獲得所需的數據時。在結果集中包括「合計」的常式通常要比使用游標執行的速度快。如果開發時 間允許,基於游標的方法和基於集的方法都可以嘗試一下,看哪一種方法的效果更好。
28、在所有的存儲過程和觸發器的開始處設置 SET NOCOUNT ON ,在結束時設置 SET NOCOUNT OFF 。無需在執行存儲過程和觸發器的每個語句後向客戶端發送 DONE_IN_PROC 消息。
29、盡量避免向客戶端返回大數據量,若數據量過大,應該考慮相應需求是否合理。
30、盡量避免大事務操作,提高系統並發能力。
『叄』 Mysql每日百萬條數據怎麼存儲和查詢
直接按時間分表吧,如果 500 萬一個表也嫌多,可以1小時一個表,反正你自己控制
分表之後,查詢會比較簡單,容易創建索引
分時間段查的話,根據時間段就可以直接鎖定到要查哪些表
按用桐森肢戶編號查就需要查所有表,但每個表都有用戶編號索引,並發從多個表可查出數據也可以很快(當然,滿足條件的數據量大的話,這始終是需要花較長時間春野的)局世
『肆』 Es實現百萬級數據快速檢索
在用戶點擊一篇采購文章,會匹配到該文章全部相關內容。所有數據是存在ES中的,百萬量級。恩~要用python寫一個介面。通過查找資料,通過 ES模糊搜索 可以實現。
prefix的匹配一般是處理不分詞的場景,將會匹配articleID中以」J」開頭的doc。prefix不會計算revelance score,只是作一個過濾的操作,和filter唯一的區別是filter會緩存結果,而prefix不會。前綴越短要處理的doc越多,茄高如性能越差。
?會匹配任意字元,*會匹配0個或多個字元。性能根prefix一樣差,必須要掃描整個倒排索引。
[0-9]:指定范圍內的數字
[a-z]:指定范圍內的字幕
.:一個字元
+:前面的正則表達式可以出現一次或多次
正則的搜索同樣會掃描全表,性能也會很差
fuzziness參數調整糾正的次數
通常不會直接用上述搜索,而會用下面的搜索:
在es中,使用組合條件查詢是其作為搜索引擎檢索數據的一個強大之處,在前幾篇中,簡單演示了es的查詢語法,但基本的增刪改查功能並不能很好的滿足復雜的查詢場景,比如說我們期望像mysql那樣做到拼接復雜的條件進行查詢該如何做呢?es中有一種語法叫bool,通過在bool裡面拼接es特定的語法可以做到大部分場景下復雜條念檔件的拼接查詢,也叫復合查詢
首先簡單介紹es中常用的組合查詢用到的關鍵詞,
filter:過濾,不參與打分
must:如果有多個條件,這些條件都必須滿足 and與
should:如果有多個條件,滿足一個或多個即可 or或
must_not:和must相反,必須都不滿足條件才可以匹配到 !非
發生 描述
must
該條款(查詢)顫啟必須出現在匹配的文件,並將有助於得分。
filter
子句(查詢)必須出現在匹配的文檔中。然而不像 must查詢的分數將被忽略。Filter子句在過濾器上下文中執行,這意味著評分被忽略,子句被考慮用於高速緩存。
should
子句(查詢)應該出現在匹配的文檔中。如果 bool查詢位於查詢上下文中並且具有mustor filter子句,則bool即使沒有should查詢匹配,文檔也將匹配該查詢 。在這種情況下,這些條款僅用於影響分數。如果bool查詢是過濾器上下文 或者兩者都不存在,must或者filter至少有一個should查詢必須與文檔相匹配才能與bool查詢匹配。這種行為可以通過設置minimum_should_match參數來顯式控制 。
must_not
子句(查詢)不能出現在匹配的文檔中。子句在過濾器上下文中執行,意味著評分被忽略,子句被考慮用於高速緩存。因為計分被忽略,0所有文件的分數被返回。
下面用實驗演示一下上述查詢的相關語法,
1、首先,我們創建一個索引,並且在索引里添加幾條數據,方便後面使用,
我這里直接批量插入數據,也可以通過PUT的語法單條執行插入,
POST /forum/article/_bulk
{ "index": { "_id": 1 }}
{ "articleID" : "XHDK-A-1293-#fJ3", "userID" : 1, "hidden": false, "postDate": "2019-07-01","title":"java contains hadoop and spark","topic":"java" }
{ "index": { "_id": 2 }}
{ "articleID" : "KDKE-B-9947-#kL5", "userID" : 1, "hidden": false, "postDate": "2019-07-02",title":"php contains admin","topic":"java and php" }
{ "index": { "_id": 3 }}
{ "articleID" : "JODL-X-1937-#pV7", "userID" : 2, "hidden": false, "postDate": "2019-07-03" ,title":"spark is new language","topic":"spark may use java"}
{ "index": { "_id": 4 }}
{ "articleID" : "QQPX-R-3956-#aD8", "userID" : 2, "hidden": true, "postDate": "2019-07-04" ,title":"hadoop may involve java","topic":"big data used"}
或者使用put語法
PUT /forum/article/4
{
"articleID": "QQPX-R-3956-#aD8",
"userID": 2,
"hidden": true,
"postDate": "2019-07-04",
"title": "hadoop may involve java",
"topic": "big data used"
}
4條數據插入成功,
2、termQuery,term查詢不分詞,類似於mysql的where filedName = ? 語法,即精準匹配,比如我們查詢articleID = XHDK-A-1293-#fJ3的這條數據,
GET /forum/article/_search
{
"query": {
"term": {
"articleID.keyword":"XHDK-A-1293-#fJ3"
}
}
}
2、must查詢,即查詢的條件中必須匹配的欄位,例如,查詢title中必須包含java的數據,
GET /forum/article/_search
{
"query": {
"bool": {
"must": [
{"term":{"title":"hadoop"}}
]
}
}
}
查出兩條數據
如果是should呢?如下語法,即查詢title中包含hadoop或者topic中包含spark,二者滿足其一即可,
GET /forum/article/_search
{
"query": {
"bool": {
"should": [
{"term":{"title":"hadoop"}},
{"term": {"topic": "spark"}}
]
}
}
}
查詢出3條數據,
must和should結合使用,
最後再來一個比較復雜的嵌套查詢,我們先看一下這條sql語句,
select *
from forum.article
where article_id=『XHDK-A-1293-#fJ3』
or (article_id=『JODL-X-1937-#pV7』 and post_date=『2017-01-01』),
對應著轉化為es的復合查詢語法是怎樣的呢?拆分來看,就是一個should語句的嵌套,
GET /forum/article/_search
{
"query": {
"bool": {
"should": [
{
"term": {
"articleID.keyword": "XHDK-A-1293-#fJ3"
}
},
{
"bool": {
"must": [
{
"term": {
"articleID.keyword":"JODL-X-1937-#pV7"
}
},
{
"term": {
"postDate":"2019-07-01"
}
}
]
}
}
}
}
查詢到一條結果,按照這種思路,如果我們對一個復雜的查詢不知道如何構建查詢語句時,可以考慮先按照sql的語法進行拆分,然後再組織es查詢語句是個不錯的突破口,
到這里,可能我們會有疑問,復合條件中的term查詢和單純的match區別在哪裡呢?既然都是查詢,究竟原理有何不同呢?
我們知道match query是需要全文檢索的,是進行full text的全文檢索,當然如果搜索的欄位值做了not_analyzed,match query也相當於是term query了,比如下面這個搜索,由於在插入數據的時候我們沒有對title這個欄位進行規定,默認就是text類型的,會被自動分詞,這樣查詢的時候只要title中包含了 hadoop,就可以匹配到,
GET /forum/article/_search
{
"query": {
"match": {
"title": "hadoop"
}
}
}
2、有些情況下,假如我們直接使用match進行查詢,又希望查出來的結果盡可能是我們期望的包含更多關鍵詞的結果,則在match進行匹配的時候可以添加其他的條件,以便提升結果的匹配精確度,
GET /forum/article/_search
{
"query": {
"match": {
"title": {
"query": "java hadoop",
"operator": "and"
}
}
}
}
這樣匹配出來的結果包含了更多我們期望的關鍵詞,即query中可以指定我們查詢的結果中包含的關鍵詞,
es還有其他的語法達到上述的效果,minimum_should_match ,通過這個語法,可以指定匹配的百分數,就是查詢的關鍵詞至少要達到的百分數,下面這個表示全部匹配,只查詢到一條結果,
假如我們將百分數調低點,比如75%,可以看到查到兩條結果,
3、當然,我們也可以將bool和match結合起來使用,如下,
GET /forum/article/_search
{
"query": {
"bool": {
"must": [
{"match": {"title": "java"}}
],
"must_not": [
{ "match": { "title": "spark"}}
]
, "should": [
{
"match": {
"title": "php"
}
}
]
}
}
}
通過這種方式,也可以達到更精準的匹配我們期望的查詢結果,
簡單總結來說,當我們使用match進行查詢的時候,如果查詢的field包含多個詞,比如像下面這個,
{
"match": { "title": "java elasticsearch"}
}
其實es會在底層自動將這個match query轉換為bool的語法bool should,指定多個搜索詞,同時使用term query,則轉化後的語法如下,
{
"bool": {
"should": [
{ "term": { "title": "java" }},
{ "term": { "title": "elasticsearch" }}
]
}
}
而上面所說的match中加and的查詢,對應於bool查詢,轉化後為 term+must 的語法如下,
{
"match": {
"title": {
"query": "java elasticsearch",
"operator": "and"
}
}
}
{
"bool": {
"must": [
{ "term": { "title": "java" }},
{ "term": { "title": "elasticsearch" }}
]
}
}
對於minimum_should_match這種語法來說,道理類似,
{
"match": {
"title": {
"query": "java elasticsearch hadoop spark",
"minimum_should_match": "75%"
}
}
}
{
"bool": {
"should": [
{ "term": { "title": "java" }},
{ "term": { "title": "elasticsearch" }},
{ "term": { "title": "hadoop" }},
{ "term": { "title": "spark" }}
],
"minimum_should_match": 3
}
}
我們來看一個具體的操作實例,也就是說必須至少包含3個關鍵詞的數據才會出現在搜索結果中,
3、在搜索中,我們有這樣一種需求,期望搜索的結果中包含java 如果標題中包含hadoop或spark就優先搜索出來,同時呢,如果一個帖子包含java hadoop,一個帖子包含java spark,包含hadoop的帖子要比spark優先搜索出來,
對於這樣的需求,通俗來講,就是需要通過增大某些搜索條件的權重,從而在搜索的結果中,更多符合和滿足我們業務場景的數據靠前搜索出來,在es中可以通過boost關鍵詞來增加搜索條件的權重,
GET /forum/article/_search
{
"query": {
"bool": {
"must": [
{
"match": {
"title": "java"
}
}
],
"should": [
{
"match": {
"title": {
"query": "hadoop"
}
}
},
{
"match": {
"title": {
"query": "spark",
"boost":2
}
}
},
{
"match": {
"title": {
"query": "php"
}
}
},
{
"match": {
"title": {
"query": "hadoop",
"boost": 5
}
}
}
]
}
}
}
上面這個例子意思是我們賦予搜索的title中包含hadoop的條件權重更大,hadoop的結果會有限被搜索出來
4、dis_max語法,也叫best_field,在某些情況下,假如我們在bool查詢中用多個欄位進行查詢,但是查詢一樣,就可能導致說查詢出來的結果並不是按照我們期望的那個欄位將其排在前面,也就是說,我們只需要包含指定欄位的內容展示在前面,如下,
GET /forum/article/_search
{
"query": {
"bool": {
"should": [
{ "match": { "title": "java solution" }},
{ "match": { "content": "java solution" }}
]
}
}
}
title和content的搜索條件相同,但我們希望的是結果中title 包含java solution的靠前展示,但直接這樣查詢可能達不到預期的效果,如果使用dis_max進行拼接就可以了,
GET /forum/article/_search
{
"query": {
"dis_max": {
"queries": [
{ "match": { "title": "java solution" }},
{ "match": { "content": "java solution" }}
]
}
}
}
通過這樣的方式,使得查詢的結果更符合預期值,
5、但是使用dis_max,只取某一個query最大的分數,完全不考慮其他query的分數,即假如說某個結果中包title含了java,但topic中沒有包含java,另一卻是相反,還有的結果是兩者都包含java,在dis_max語法下,只會拿到相關度得分最高的那一個,而不會考慮其他的結果,這時,如果需要獲取其他的title或者topic包含java的結果,可以使用tie_breaker進一步包裝,如下,
GET /forum/article/_search
{
"query": {
"dis_max": {
"queries": [
{ "match": { "title": "spark" }},
{ "match": { "topic": "java"}}
],
"tie_breaker": 0.6
}
}
}
這樣查到3條結果,綜合來說,最終還是需要結合實際業務場景進行使用,但是在大多數情況相愛,我們還是希望搜索的結果中是按照我們給定的條件包含更多的關鍵詞的內容被優先搜索出來,