婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁(yè) > 知識(shí)庫(kù) > 在PostgreSQL中使用數(shù)組時(shí)值得注意的一些地方

在PostgreSQL中使用數(shù)組時(shí)值得注意的一些地方

熱門標(biāo)簽:南昌呼叫中心外呼系統(tǒng)哪家好 怎么去開(kāi)發(fā)一個(gè)電銷機(jī)器人 小程序智能電話機(jī)器人 ai電話電話機(jī)器人 泗洪正規(guī)電話機(jī)器人找哪家 湖南保險(xiǎn)智能外呼系統(tǒng)產(chǎn)品介紹 怎么申請(qǐng)400熱線電話 簡(jiǎn)單的智能語(yǔ)音電銷機(jī)器人 河北便宜電銷機(jī)器人軟件

在Heap中,我們依靠PostgreSQL支撐大多數(shù)后端繁重的任務(wù),我們存儲(chǔ)每個(gè)事件為一個(gè)hstore blob,我們?yōu)槊總€(gè)跟蹤的用戶維護(hù)一個(gè)已完成事件的PostgreSQL數(shù)組,并將這些事件按時(shí)間排序。 Hstore能夠讓我們以靈活的方式附加屬性到事件中,而且事件數(shù)組賦予了我們強(qiáng)大的性能,特別是對(duì)于漏斗查詢,在這些查詢中我們計(jì)算不同轉(zhuǎn)化渠道步驟間的輸出。

在這篇文章中,我們看看那些意外接受大量輸入的PostgreSQL函數(shù),然后以高效,慣用的方式重寫它。

你的第一反應(yīng)可能是將PostgreSQL中的數(shù)組看做像C語(yǔ)言中對(duì)等的類似物。你之前可能用過(guò)變換陣列位置或切片來(lái)操縱數(shù)據(jù)。不過(guò)要小心,在PostgreSQL中不要有這樣的想法,特別是數(shù)組類型是變長(zhǎng)的時(shí),比如JSON、文本或是hstore。如果你通過(guò)位置來(lái)訪問(wèn)PostgreSQL數(shù)組,你會(huì)進(jìn)入一個(gè)意想不到的性能暴跌的境地。


這種情況幾星期前在Heap出現(xiàn)了。我們?cè)贖eap為每個(gè)跟蹤用戶維護(hù)一個(gè)事件數(shù)組,在這個(gè)數(shù)組中我們用一個(gè)hstore datum代表每個(gè)事件。我們有一個(gè)導(dǎo)入管道來(lái)追加新事件到對(duì)應(yīng)的數(shù)組。為了使這一導(dǎo)入管道是冪等的,我們給每個(gè)事件設(shè)定一個(gè)event_id,我們通過(guò)一個(gè)功能函數(shù)重復(fù)運(yùn)行我們的事件數(shù)組。如果我們要更新附加到事件的屬性的話,我們只需使用相同的event_id轉(zhuǎn)儲(chǔ)一個(gè)新的事件到管道中。

所以,我們需要一個(gè)功能函數(shù)來(lái)處理hstores數(shù)組,并且,如果兩個(gè)事件具有相同的event_id時(shí)應(yīng)該使用數(shù)組中最近出現(xiàn)的那個(gè)。剛開(kāi)始嘗試這個(gè)函數(shù)是這樣寫的:
 

-- This is slow, and you don't want to use it!
--
-- Filter an array of events such that there is only one event with each event_id.
-- When more than one event with the same event_id is present, take the latest one.
CREATE OR REPLACE FUNCTION dedupe_events_1(events HSTORE[]) RETURNS HSTORE[] AS $$
 SELECT array_agg(event)
 FROM (
  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.
  SELECT event
  FROM (
   -- Rank elements with the same event_id by position in the array, descending.

這個(gè)查詢?cè)趽碛?.4GHz的i7CPU及16GB Ram的macbook pro上測(cè)得,運(yùn)行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發(fā)生了什么呢? 關(guān)鍵在于PostgreSQL存貯了一個(gè)系列的hstores作為數(shù)組的值, 而不是指向值的指針. 一個(gè)包含了三個(gè)hstores的數(shù)組看起來(lái)像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對(duì)于那些長(zhǎng)度不一的變量, 舉個(gè)例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個(gè)變量的長(zhǎng)度. 對(duì)于evaluateevents[2], PostgreSQL 解析從左側(cè)讀取的事件直到讀取到第二次讀取的數(shù)據(jù). 然后就是 forevents[3], 她再一次的從第一個(gè)索引處開(kāi)始掃描,直到讀到第三次的數(shù)據(jù)! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對(duì)于在數(shù)組中的每一個(gè)索引都是 O(N2), N是數(shù)組的長(zhǎng)度.

PostgreSQL能得到更加恰當(dāng)?shù)慕馕鼋Y(jié)果,  它可以在這樣的情況下分析該數(shù)組一次. 真正的答案是可變長(zhǎng)度的元素與指針來(lái)實(shí)現(xiàn),以數(shù)組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時(shí)間內(nèi).


即便如此,我們也不應(yīng)該讓PostgreSQL來(lái)處理,因?yàn)檫@不是一個(gè)地道的查詢。除了generate_subscripts我們可以用unnest,它解析數(shù)組并返回一組條目。這樣一來(lái),我們就不需要在數(shù)組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.
-- When more than one event with the same event_id, is present, take the latest one.
CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$
 SELECT array_agg(event)
 FROM (
  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.
  SELECT event
  FROM (
   -- Rank elements with the same event_id by position in the array, descending.
   SELECT event, row_number AS index, rank()
   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)
   FROM (
    -- Use unnest instead of generate_subscripts to turn an array into a set.
    SELECT event, row_number()
    OVER (ORDER BY event -> 'time')
    FROM unnest(events) AS event
   ) unnested_data
  ) deduped_events
  WHERE rank = 1
  ORDER BY index ASC
 ) to_agg;
$$ LANGUAGE SQL IMMUTABLE;

結(jié)果是有效的,它花費(fèi)的時(shí)間跟輸入數(shù)組的大小呈線性關(guān)系。對(duì)于100K個(gè)元素的輸入它需要大約半秒,而之前的實(shí)現(xiàn)需要40秒。

這實(shí)現(xiàn)了我們的需求:

  •     一次解析數(shù)組,不需要unnest。
  •     按event_id劃分。
  •     對(duì)每個(gè)event_id采用最新出現(xiàn)的。
  •     按輸入索引排序。

教訓(xùn):如果你需要訪問(wèn)PostgreSQL數(shù)組的特定位置,考慮使用unnest代替。 

   SELECT events[sub] AS event, sub, rank()
   OVER (PARTITION BY (events[sub] -> 'event_id')::BIGINT ORDER BY sub DESC)
   FROM generate_subscripts(events, 1) AS sub
  ) deduped_events
  WHERE rank = 1
  ORDER BY sub ASC
 ) to_agg;
$$ LANGUAGE SQL IMMUTABLE;

這樣奏效,但大輸入是性能下降了。這是二次的,在輸入數(shù)組有100K各元素時(shí)它需要大約40秒!

這個(gè)查詢?cè)趽碛?.4GHz的i7CPU及16GB Ram的macbook pro上測(cè)得,運(yùn)行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發(fā)生了什么呢? 關(guān)鍵在于PostgreSQL存貯了一個(gè)系列的hstores作為數(shù)組的值, 而不是指向值的指針. 一個(gè)包含了三個(gè)hstores的數(shù)組看起來(lái)像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對(duì)于那些長(zhǎng)度不一的變量, 舉個(gè)例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個(gè)變量的長(zhǎng)度. 對(duì)于evaluateevents[2], PostgreSQL 解析從左側(cè)讀取的事件直到讀取到第二次讀取的數(shù)據(jù). 然后就是 forevents[3], 她再一次的從第一個(gè)索引處開(kāi)始掃描,直到讀到第三次的數(shù)據(jù)! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對(duì)于在數(shù)組中的每一個(gè)索引都是 O(N2), N是數(shù)組的長(zhǎng)度.

PostgreSQL能得到更加恰當(dāng)?shù)慕馕鼋Y(jié)果,  它可以在這樣的情況下分析該數(shù)組一次. 真正的答案是可變長(zhǎng)度的元素與指針來(lái)實(shí)現(xiàn),以數(shù)組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時(shí)間內(nèi).


即便如此,我們也不應(yīng)該讓PostgreSQL來(lái)處理,因?yàn)檫@不是一個(gè)地道的查詢。除了generate_subscripts我們可以用unnest,它解析數(shù)組并返回一組條目。這樣一來(lái),我們就不需要在數(shù)組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.
-- When more than one event with the same event_id, is present, take the latest one.
CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$
 SELECT array_agg(event)
 FROM (
  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.
  SELECT event
  FROM (
   -- Rank elements with the same event_id by position in the array, descending.
   SELECT event, row_number AS index, rank()
   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)
   FROM (
    -- Use unnest instead of generate_subscripts to turn an array into a set.
    SELECT event, row_number()
    OVER (ORDER BY event -> 'time')
    FROM unnest(events) AS event
   ) unnested_data
  ) deduped_events
  WHERE rank = 1
  ORDER BY index ASC
 ) to_agg;
$$ LANGUAGE SQL IMMUTABLE;

結(jié)果是有效的,它花費(fèi)的時(shí)間跟輸入數(shù)組的大小呈線性關(guān)系。對(duì)于100K個(gè)元素的輸入它需要大約半秒,而之前的實(shí)現(xiàn)需要40秒。

這實(shí)現(xiàn)了我們的需求:

  •     一次解析數(shù)組,不需要unnest。
  •     按event_id劃分。
  •     對(duì)每個(gè)event_id采用最新出現(xiàn)的。
  •     按輸入索引排序。

教訓(xùn):如果你需要訪問(wèn)PostgreSQL數(shù)組的特定位置,考慮使用unnest代替。

您可能感興趣的文章:
  • PostgreSQL 對(duì)數(shù)組的遍歷操作
  • PostgreSQL中使用數(shù)組改進(jìn)性能實(shí)例代碼
  • Mybatis調(diào)用PostgreSQL存儲(chǔ)過(guò)程實(shí)現(xiàn)數(shù)組入?yún)鬟f
  • postgresql 實(shí)現(xiàn)將數(shù)組變?yōu)樾?/li>

標(biāo)簽:景德鎮(zhèn) 荊門 柳州 淮安 威海 瀘州 江蘇 那曲

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《在PostgreSQL中使用數(shù)組時(shí)值得注意的一些地方》,本文關(guān)鍵詞  在,PostgreSQL,中,使用,數(shù)組,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《在PostgreSQL中使用數(shù)組時(shí)值得注意的一些地方》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于在PostgreSQL中使用數(shù)組時(shí)值得注意的一些地方的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    欧美日韩视频不卡| 欧美tk—视频vk| 丝袜亚洲另类丝袜在线| 成人欧美一区二区三区1314| 欧美一区二区三区小说| 欧美日韩在线观看一区二区| 亚洲欧洲av在线| 欧美系列在线观看| 久久精品久久综合| 国产精品综合久久| www.成人在线| 色噜噜夜夜夜综合网| 在线亚洲免费视频| 欧美性欧美巨大黑白大战| 色天天综合色天天久久| 日本午夜一区二区| 精品一区二区三区蜜桃| 精品一区二区三区久久久| 久久国产精品一区二区| 国产一区二区主播在线| 成人综合在线视频| jizz一区二区| 制服丝袜亚洲播放| 久久久久久亚洲综合| 中文字幕一区在线观看视频| 中国色在线观看另类| 亚洲精品免费视频| 蜜臀av一级做a爰片久久| 国产91丝袜在线播放九色| 在线亚洲精品福利网址导航| 91精品国产一区二区三区香蕉| 99精品国产99久久久久久白柏| 免费在线观看一区二区三区| 亚洲激情自拍偷拍| 91精品国产一区二区| 国产剧情av麻豆香蕉精品| 一区二区三区在线看| 国产+成+人+亚洲欧洲自线| 911国产精品| 1000精品久久久久久久久| 国产一区二区精品在线观看| 色999日韩国产欧美一区二区| 久久日韩精品一区二区五区| 亚洲人成网站在线| 国产一区二区成人久久免费影院 | 一区二区在线看| 久久疯狂做爰流白浆xx| 精品视频全国免费看| 一区二区三区四区在线播放| 久久丁香综合五月国产三级网站| 欧美在线播放高清精品| 国产日韩高清在线| 丰满少妇在线播放bd日韩电影| 精品视频免费在线| 国产精品免费观看视频| 蜜桃精品在线观看| 欧美一区二区免费| 9色porny自拍视频一区二区| 精品一区二区日韩| 欧美一区二区视频观看视频| 亚洲一区二区三区影院| 91麻豆福利精品推荐| 2欧美一区二区三区在线观看视频| 日韩激情av在线| 91丨porny丨在线| 51精品秘密在线观看| 欧美国产乱子伦| 丝袜美腿亚洲色图| 99九九99九九九视频精品| 亚洲欧美综合另类在线卡通| 欧美最新大片在线看| 蜜臀av一区二区在线免费观看| 欧美成人精品1314www| 成人国产免费视频| 日韩中文字幕区一区有砖一区| 欧美一级视频精品观看| jlzzjlzz亚洲女人18| 亚洲成年人网站在线观看| 久久久久久亚洲综合影院红桃 | 99久久er热在这里只有精品66| 一区二区成人在线视频| 久久这里只有精品6| 欧美日韩一区三区四区| av一区二区三区黑人| 久久精品久久99精品久久| 亚洲欧美成aⅴ人在线观看| 久久一留热品黄| 日韩欧美一卡二卡| 色综合久久天天综合网| av在线播放一区二区三区| 国产一区999| 国产精品99久久久久| 麻豆极品一区二区三区| 首页国产欧美久久| 国产精品白丝jk黑袜喷水| 日韩精品欧美精品| 久久久久久久久久看片| 成人av手机在线观看| 国产精品国产三级国产aⅴ无密码 国产精品国产三级国产aⅴ原创 | av日韩在线网站| 毛片不卡一区二区| 成av人片一区二区| 国模少妇一区二区三区| 蜜桃精品视频在线| 狠狠狠色丁香婷婷综合激情| 免费在线看一区| 国产在线精品国自产拍免费| 久久国产视频网| 国产 欧美在线| 成人福利视频在线| 日本韩国欧美在线| 欧美日韩视频在线观看一区二区三区 | 国产一区二区免费在线| 国产精品乡下勾搭老头1| 大胆欧美人体老妇| 欧美日本高清视频在线观看| 7777女厕盗摄久久久| 久久久久国产成人精品亚洲午夜| 久久久国产一区二区三区四区小说| 2023国产精华国产精品| 亚洲欧美一区二区视频| 日日摸夜夜添夜夜添亚洲女人| 麻豆精品视频在线观看| 一本一道久久a久久精品| 欧美美女一区二区在线观看| 日韩欧美你懂的| 国产乱人伦偷精品视频免下载| 亚洲欧美偷拍三级| 亚洲精品日韩综合观看成人91| 久久亚洲精华国产精华液| 欧美videossexotv100| 欧美一区二区三区在| 欧美中文字幕一区二区三区亚洲| 91国产福利在线| 国产精品免费av| 国产69精品久久777的优势| 亚洲激情男女视频| 精品国产不卡一区二区三区| 久久综合久色欧美综合狠狠| 午夜电影网亚洲视频| 91美女视频网站| 国产精品久久久久久久久晋中 | 欧美日韩国产综合久久| 亚洲一二三区视频在线观看| 欧美熟乱第一页| 蜜臀av在线播放一区二区三区| 欧美电影免费观看高清完整版在线 | 久久影院午夜论| 国产精品18久久久久久久久| 欧美一区二区在线不卡| 亚洲第一在线综合网站| 7777精品伊人久久久大香线蕉完整版 | 久久久久久久免费视频了| 国产精品网站一区| 日本特黄久久久高潮| 欧美猛男男办公室激情| 日韩精品视频网站| 欧美成人一级视频| 国产精品白丝av| 亚洲成人自拍一区| 日韩一卡二卡三卡国产欧美| 激情文学综合丁香| 亚洲精品国产一区二区三区四区在线| 欧美影院一区二区| 免费观看日韩电影| 国产亚洲精品免费| 99riav一区二区三区| 亚洲香蕉伊在人在线观| 精品日本一线二线三线不卡| 91麻豆swag| 老司机午夜精品| 欧美本精品男人aⅴ天堂| 91视频免费看| 蜜桃精品在线观看| 亚洲一区在线电影| 精品国产123| 99在线精品一区二区三区| 麻豆国产91在线播放| 国产精品免费人成网站| 欧美tickling挠脚心丨vk| 99久久精品费精品国产一区二区| 亚洲第一狼人社区| 中文字幕在线不卡一区二区三区| 久久久综合激的五月天| 欧美电影免费观看高清完整版| 色婷婷精品大视频在线蜜桃视频| 极品少妇xxxx偷拍精品少妇| 亚洲老妇xxxxxx| 中文字幕一区二区在线观看| 日韩一区二区三区精品视频 | 亚洲午夜在线电影| 日韩一本二本av| 久久精品国产亚洲aⅴ| 日韩一区二区三区av| 国产成人综合在线播放| 亚洲第一久久影院| 亚洲无人区一区| 青草国产精品久久久久久| 蜜臀久久99精品久久久画质超高清 | 一区二区三区欧美日韩|