婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 關于MongoDB謹防索引seek的效率問題詳析

關于MongoDB謹防索引seek的效率問題詳析

熱門標簽:外呼線路資源屬于電信業務嗎 內蒙古營銷智能外呼系統哪個好 長沙電銷外呼防封卡是什么 河南電話外呼系統招商 呼和浩特外呼系統原理是什么 crm外呼系統聯系方式 小裙科技電銷機器人怎樣 青白江400企業電話申請 智能外呼系統官網

背景

最近線上的一個工單分析服務一直不大穩定,監控平臺時不時發出數據庫操作超時的告警。

運維兄弟溝通后,發現在每天凌晨1點都會出現若干次的業務操作失敗,而數據庫監控上并沒有發現明顯的異常。

在該分析服務的日志中發現了某個數據庫操作產生了 SocketTimeoutException。

開發同學一開始希望通過調整 MongoDB Java Driver 的超時參數來規避這個問題。
但經過詳細分析之后,這樣是無法根治問題的,而且超時配置應該如何調整也難以評估。

下面是關于對這個問題的分析、調優的過程。

初步分析

從出錯的信息上看,是數據庫的操作響應超時了,此時客戶端配置的 SocketReadTimeout 為 60s。
那么,是什么操作會導致數據庫 60s 還沒能返回呢?

業務操作

左邊的數據庫是一個工單數據表(t_work_order),其中記錄了每張工單的信息,包括工單編號(oid)、最后修改時間(lastModifiedTime)

分析服務是Java實現的一個應用程序,在每天凌晨1:00 會拉取出前一天修改的工單信息(要求按工單號排序)進行處理。

由于工單表非常大(千萬級),所以在處理時會采用分頁的做法(每次取1000條),使用按工單號翻頁的方式:

第一次拉取

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}, 
  "oid": {$exists: true}})
  .sort({"oid":1}).limit(1000)

第二次拉取,以第一次拉取的最后一條記錄的工單號作為起點

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}, 
  "oid": {$exists: true, $gt: "VXZ190"}})
  .sort({"oid":1}).limit(1000)
..

根據這樣的查詢,開發人員給數據表使用的索引如下:

db.t_work_order.ensureIndexes({
  "oid" : 1,
  "lastModifiedTime" : -1
})

盡管該索引與查詢字段基本是匹配的,但在實際執行時卻表現出很低的效率:
第一次拉取時間非常的長,經常超過60s導致報錯,而后面的拉取時間則會快一些

為了精確的模擬該場景,我們在測試環境中預置了小部分數據,對拉取記錄的SQL執行Explain:

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}
  "oid": {$exists: true}})
  .sort({"oid":1}).limit(1000)
  .explain("executionStats")

輸出結果如下

"nReturned" : 1000,
"executionTimeMillis" : 589,
"totalKeysExamined" : 136661,
"totalDocsExamined" : 1000,

...

"indexBounds" : {
    "oid" : [
        "[MinKey, MaxKey]"
    ],
    "lastModifiedTime" : [
        "(new Date(1554806697106), new Date(1554803097106))"
    ]
},
"keysExamined" : 136661,
"seeks" : 135662,

在執行過程中發現,檢索1000條記錄,居然需要掃描 13.6 W條索引項!

其中,幾乎所有的開銷都花費在了 一個seeks操作上了。

索引seeks的原因

官方文檔對于 seeks 的解釋如下:

The number of times that we had to seek the index cursor to a new position in order to complete the index scan.

翻譯過來就是:

seeks 是指為了完成索引掃描(stage),執行器必須將游標定位到新位置的次數。

我們都知道 MongoDB 的索引是B+樹的實現(3.x以上),對于連續的葉子節點掃描來說是非??斓?只需要一次尋址),那么seeks操作太多則表示整個掃描過程中出現了大量的尋址(跳過非目標節點)。
而且,這個seeks指標是在3.4版本支持的,因此可以推測該操作對性能是存在影響的。

為了探究 seeks 是怎么產生的,我們對查詢語句嘗試做了一些變更:

去掉 exists 條件

exists 條件的存在是因為歷史問題(一些舊記錄并不包含工單號的字段),為了檢查exists查詢是否為關鍵問題,修改如下:

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}
  })
  .sort({"oid":1}).limit(1000)
  .explain("executionStats")

執行后的結果為:

"nReturned" : 1000,
"executionTimeMillis" : 1533,
"totalKeysExamined" : 272322,
"totalDocsExamined" : 272322,
 
...

"inputStage" : {
  "stage" : "FETCH",
  "filter" : {
      "$and" : [
          {
              "lastModifiedTime" : {
                  "$lt" : ISODate("2019-04-09T10:44:57.106Z")
              }
          },
          {
              "lastModifiedTime" : {
                  "$gt" : ISODate("2019-04-09T09:44:57.106Z")
              }
          }
      ]
},

...

"indexBounds" : {
    "oid" : [
        "[MinKey, MaxKey]"
    ],
    "lastModifiedTime" : [
        "[MaxKey, MinKey]"
    ]
},
"keysExamined" : 272322,
"seeks" : 1,

這里發現,去掉 exists 之后,seeks 變成了1次,但整個查詢掃描了 27.2W 條索引項! 剛好是去掉之前的2倍。

seeks 變為1次說明已經使用了葉節點順序掃描的方式,然而由于掃描范圍非常大,為了找到目標記錄,會執行順序掃描并過濾大量不符合條件的記錄。

在 FETCH 階段出現了 filter可說明這一點。與此同時,我們檢查了數據表的特征:同一個工單號是存在兩條記錄的!于是可以說明:

在存在exists查詢條件時,執行器會選擇按工單號進行seeks跳躍式檢索,如下圖:


在不存在exists條件的情況下,執行器選擇了葉節點順序掃描的方式,如下圖:


gt 條件和反序

除了第一次查詢之外,我們對后續的分頁查詢也進行了分析,如下:

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}, 
  "oid": {$exists: true, $gt: "VXZ190"}})
  .sort({"oid":1}).limit(1000)
  .explain("executionStats")

上面的語句中,主要是增加了$gt: "VXZ190"這一個條件,執行過程如下:

"nReturned" : 1000,
"executionTimeMillis" : 6,
"totalKeysExamined" : 1004,
"totalDocsExamined" : 1000,

...

"indexBounds" : {
  "oid" : [ 
    "(\"VXZ190\", {})"
  ],
  "lastModifiedTime" : [ 
    "(new Date(1554806697106), new Date(1554803097106))"
  ]
},
"keysExamined" : 1004,
"seeks" : 5,

可以發現,seeks的數量非常少,而且檢索過程只掃描了1004條記錄,效率是很高的。

那么,是不是意味著在后面的數據中,滿足查詢的條件的記錄非常密集呢?

為了驗證這一點,我們將一開始第一次分頁的查詢做一下調整,改為按工單號降序的方式(從后往前掃描):

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}, 
  "oid": {$exists: true}})
  .sort({"oid":-1}).limit(1000)
  .explain("executionStats")

新的"反序查詢語句"的執行過程如下:

"nReturned" : 1000,
"executionTimeMillis" : 6,
"totalKeysExamined" : 1001,
"totalDocsExamined" : 1000,

...

"direction" : "backward",
"indexBounds" : {
  "oid" : [ 
    "[MaxKey, MinKey]"
  ],
  "lastModifiedTime" : [ 
    "(new Date(1554803097106), new Date(1554806697106))"
  ]
},
"keysExamined" : 1001,
"seeks" : 2,

可以看到,執行的效率更高了,幾乎不需要什么 seeks 操作!

經過一番確認后,我們獲知了在所有數據的分布中,工單號越大的記錄其更新時間值也越大,基本上我們想查詢的目標數據都集中在尾端。

于是就會出現一開始提到的,第一次查詢非常慢甚至超時,而后面的查詢就快了。

上面提到的兩個查詢執行路線如圖所示:

加入$gt 條件,從中間開始檢索


反序,從后面開始檢索


優化思路

通過分析,我們知道了問題的癥結在于索引的掃描范圍過大,那么如何優化,以避免掃描大量記錄呢?

從現有的索引及條件來看,由于同時存在gt、exists以及葉子節點的時間范圍限定,不可避免的會產生seeks操作,
而且查詢的性能是不穩定的,跟數據分布、具體查詢條件都有很大的關系。

于是一開始所提到的僅僅是增加 socketTimeout 的閾值可能只是治標不治本,一旦數據的索引值分布變化或者數據量持續增大,可能會發生更嚴重的事情。

回到一開始的需求場景,定時器要求讀取每天更新的工單(按工單號排序),再進行分批處理。

那么,按照化零為整的思路,新增一個lastModifiedDay字段,這個存儲的就是lastModifiedTime對應的日期值(低位取整),這樣在同一天內更新的工單記錄都有同樣的值。

建立組合索引 {lastModifiedDay:1, oid:1},相應的查詢條件改為:

{
 "lastModifiedDay": new Date("2019-04-09 00:00:00.000"),
 "oid": {$gt: "VXZ190"}
} 
-- limit 1000

執行結果如下:

"nReturned" : 1000,
"executionTimeMillis" : 6,
"totalKeysExamined" : 1000,
"totalDocsExamined" : 1000,

...

"indexBounds" : {
    "lastModifiedDay" : [
        "(new Date(1554803000000), new Date(1554803000000))"
    ],
    "oid" : [
        "(\"VXZ190\", {})"
    ]
},
"keysExamined" : 1000,
"seeks" : 1,

這樣優化之后,每次查詢最多只掃描1000條記錄,查詢速度是非??斓?!

小結

本質上,這就是一種空間換時間的方法,即通過存儲一個額外的索引字段來加速查詢,通過增加少量的存儲開銷提升了整體的效能。

在對于許多問題進行優化時,經常是需要從應用場景觸發,適當的轉換思路。

比如在本文的問題中,是不是一定要增加字段呢?如果業務上可以接受不按工單號排序進行讀取,那么僅使用更新時間字段進行分頁拉取也是可以達到效果的,具體還是要由業務場景來定。

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作具有一定的參考學習價值,謝謝大家對腳本之家的支持。

您可能感興趣的文章:
  • MongoDB 數據庫的命名、設計規范詳解
  • 28個MongoDB經典面試題詳解
  • MongoDB常用數據庫命令大全
  • 修復 Mac brew 安裝 mongodb 報 Error: No available formula with the name ‘mongodb’ 問題詳解
  • MongoDB啟動報錯 28663 Cannot start server
  • Node.js操作MongoDB數據庫實例分析
  • MongoDB數據庫安裝配置、基本操作實例詳解
  • Windows10安裝MongoDB4.0詳細步驟及啟動配置教程
  • nodejs對mongodb數據庫的增加修刪該查實例代碼
  • mongodb基本命令實例小結
  • Win10 64位安裝MongoDB數據庫的詳細教程
  • linux下安裝mongodb教程
  • Python操作redis和mongoDB的方法
  • dotnet core鏈接mongodb代碼實例
  • Zabbix3.4監控mongodb數據庫狀態的方法
  • Windows安裝壓縮版MongoDB的教程
  • 在Laravel中使用MongoDB的方法示例
  • MongoDB中數據的替換方法實現類Replace()函數功能詳解

標簽:舟山 楚雄 呼倫貝爾 黃石 菏澤 安順 池州 白山

巨人網絡通訊聲明:本文標題《關于MongoDB謹防索引seek的效率問題詳析》,本文關鍵詞  關于,MongoDB,謹防,索引,seek,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《關于MongoDB謹防索引seek的效率問題詳析》相關的同類信息!
  • 本頁收集關于關于MongoDB謹防索引seek的效率問題詳析的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    国产综合一区二区| 久久精品免费看| 日韩理论在线观看| 国产精品视频看| 国产欧美一区二区三区鸳鸯浴| 日韩精品一区二区三区视频| 日韩欧美亚洲一区二区| 久久综合五月天婷婷伊人| 国产日韩欧美一区二区三区乱码 | 一区二区高清视频在线观看| 亚洲另类中文字| 亚洲成a人v欧美综合天堂下载| 亚洲自拍偷拍综合| 日本中文字幕一区二区有限公司| 精品一区二区三区欧美| 国产成人一级电影| 91社区在线播放| 3d动漫精品啪啪| 国产清纯白嫩初高生在线观看91 | 国产精品一区二区久久不卡| 东方aⅴ免费观看久久av| 97久久精品人人爽人人爽蜜臀| 欧美性videosxxxxx| 精品国产一区二区亚洲人成毛片 | 欧美一级免费大片| 国产欧美一区二区三区网站| 亚洲免费成人av| 久久精品久久综合| 91尤物视频在线观看| 欧美一级一级性生活免费录像| 国产日韩欧美高清在线| 一区二区三区四区不卡在线 | 国产欧美一区二区在线观看| 亚洲日本va在线观看| 日日夜夜一区二区| 成人黄色大片在线观看| 日韩精品一区二区三区swag| 国产精品久久久久久久久免费桃花 | 久久久午夜电影| 一区二区三区国产| 国产激情视频一区二区在线观看| 91国偷自产一区二区开放时间| 精品国产精品一区二区夜夜嗨| 亚洲黄色小视频| 国产精品888| 欧美日本免费一区二区三区| 国产欧美一区二区三区沐欲| 日本不卡一区二区| 色婷婷久久99综合精品jk白丝| 26uuuu精品一区二区| 丝袜诱惑亚洲看片| 欧美日韩一区不卡| 亚洲免费大片在线观看| 国产成人8x视频一区二区| 5566中文字幕一区二区电影 | 国产剧情在线观看一区二区 | 国产精品一区二区在线播放| 制服丝袜中文字幕亚洲| 亚洲美腿欧美偷拍| 91免费看`日韩一区二区| 国产日韩三级在线| 国产91色综合久久免费分享| 精品国产青草久久久久福利| 蜜桃视频一区二区| 欧美一级免费大片| 蜜臀99久久精品久久久久久软件| 欧美精品色一区二区三区| 一卡二卡欧美日韩| 欧美亚男人的天堂| 亚洲制服丝袜av| 欧美日韩综合在线| 日本一道高清亚洲日美韩| 制服丝袜亚洲精品中文字幕| 三级一区在线视频先锋| 69久久夜色精品国产69蝌蚪网| 日韩精品乱码免费| 91精品国产全国免费观看| 日本亚洲三级在线| 日韩欧美激情在线| 国内欧美视频一区二区| 久久精品日产第一区二区三区高清版| 国产剧情在线观看一区二区| 欧美激情一区二区三区在线| av资源站一区| 亚洲国产精品久久人人爱 | 中文字幕精品一区二区三区精品| 国产精品一区二区三区99| 国产精品看片你懂得| 91蜜桃婷婷狠狠久久综合9色| 亚洲小说春色综合另类电影| 91精品国产日韩91久久久久久| 久久精品国产澳门| 国产精品久久网站| 欧美色综合久久| 另类小说图片综合网| 久久久精品人体av艺术| www.亚洲人| 调教+趴+乳夹+国产+精品| 精品国产免费一区二区三区香蕉| 国产成人99久久亚洲综合精品| 一区二区三区在线视频免费观看| 欧美在线观看视频在线| 精品无人码麻豆乱码1区2区| 国产精品色在线观看| 欧美色网站导航| 懂色av中文一区二区三区| 五月综合激情网| 久久精品男人天堂av| 欧美色图免费看| 成人午夜电影久久影院| 免费成人美女在线观看.| 中文字幕一区免费在线观看| 欧美日韩国产精品成人| 国产麻豆一精品一av一免费| 亚洲午夜在线视频| 欧美国产一区二区在线观看| 欧美日韩成人综合天天影院| 99这里都是精品| 精品一区二区三区免费| 亚洲二区在线视频| 亚洲免费观看高清在线观看| 久久亚洲精品小早川怜子| 欧美精品在线观看一区二区| 99久久99久久综合| 国产成人精品亚洲777人妖| 日韩**一区毛片| 一区二区三区丝袜| 国产精品久久久久三级| 久久无码av三级| 日韩无一区二区| 91精品视频网| 欧美日韩一区三区| 色综合久久综合| av欧美精品.com| 国产精品99久| 国产成人一区在线| 国产伦理精品不卡| 麻豆91精品视频| 日韩不卡一区二区三区| 婷婷亚洲久悠悠色悠在线播放 | 日韩亚洲电影在线| 欧美日韩一区久久| 欧美伊人精品成人久久综合97 | 欧美在线不卡一区| 91天堂素人约啪| 99国产精品国产精品毛片| 成人免费电影视频| 99久久99精品久久久久久| 一本一本久久a久久精品综合麻豆 一本一道波多野结衣一区二区 | 国产精品第一页第二页第三页| 久久久久久久久岛国免费| 337p粉嫩大胆噜噜噜噜噜91av| 欧美精品一区二区三区高清aⅴ | 亚洲最快最全在线视频| 亚洲一区自拍偷拍| 一级精品视频在线观看宜春院| 一区二区三区日韩欧美| 一级做a爱片久久| 视频在线观看91| 国产综合色视频| 91在线一区二区三区| 欧美亚洲动漫精品| 91精品国产入口在线| 久久久久久**毛片大全| 国产精品大尺度| 亚洲成av人片在线观看无码| 日本女人一区二区三区| 国产精品77777| 在线视频欧美精品| 日韩女优视频免费观看| 国产农村妇女毛片精品久久麻豆 | 国产精品福利影院| 亚洲777理论| 国产成人av电影在线| 欧洲亚洲国产日韩| 日韩久久免费av| 国产精品嫩草99a| 亚洲成av人影院在线观看网| 国产成人午夜99999| 欧美在线免费播放| 久久一区二区视频| 一区二区激情视频| 高清成人在线观看| 欧美欧美午夜aⅴ在线观看| 久久久噜噜噜久久人人看| 亚洲蜜臀av乱码久久精品蜜桃| 久久精品av麻豆的观看方式| 95精品视频在线| 国产色91在线| 日韩综合小视频| 91麻豆自制传媒国产之光| 精品国内二区三区| 婷婷丁香久久五月婷婷| 91视频www| 国产精品国产精品国产专区不片| 奇米影视7777精品一区二区| 色悠悠亚洲一区二区| 国产日韩欧美麻豆| 激情六月婷婷综合| 欧美一级黄色录像|