数据库技术支持文档
數(shù)據(jù)庫技術(shù)支持文檔
說明
對平時工作學(xué)習(xí)遇到的數(shù)據(jù)庫相關(guān)知識和技巧記錄,會對一些優(yōu)秀知識講解文章的摘錄,包括PostgreSQL、MySQL、Oracle等
| 1.0 | 初稿 | 2021-05-28 | pitt1997 |
完整文件下載
數(shù)據(jù)庫技術(shù)支持文檔.pdf
數(shù)據(jù)庫技術(shù)支持文檔.md
MySQL
MySQL 數(shù)據(jù)怎么存儲?MySQL 中的數(shù)據(jù)在磁盤上,它到底是如何進(jìn)行存儲的?長什么樣?
掃盲:存儲引擎是作用在表上的。
主要命令
查詢當(dāng)前數(shù)據(jù)庫支持的存儲引擎
mysql> show engines;查詢當(dāng)前默認(rèn)的存儲引擎
mysql> show variables like '%storage_engine%';查詢表的相關(guān)信息(先使用具體的數(shù)據(jù)庫)
use '數(shù)據(jù)庫名'; show table status like '表名';查看是否開啟了binlog
mysql> show variables like 'log_%';查看指定binlog文件的內(nèi)容
mysql> show binlog events in 'mysql-bin.000001';只查看第一個binlog文件的內(nèi)容
mysql> show binlog events;儲存引擎
MySQL 中的數(shù)據(jù)用各種不同的技術(shù)存儲在文件(或者內(nèi)存)中,這些不同的技術(shù)以及配套的相關(guān)功能在MySQL 中被稱作存儲引擎。不同的存儲引擎,我們的數(shù)據(jù)存儲的格式也會不一樣。
MySQL 中常用的存儲引擎有兩種:MyISAM 和 InnoDB。并且存儲引擎是作用在表上的!
MySQL 5.5之前,MyISAM 是默認(rèn)的存儲引擎。MySQL 5.5開始,InnoDB 是默認(rèn)的存儲引擎。
主要區(qū)別
| 事務(wù) | 不支持 | 支持 |
| 表/行鎖 | 只有表鎖 | 還引入了行鎖 |
| 外鍵 | 不支持 | 支持 |
| 全文索引 | 支持 | 版本5.6 開始支持 |
| 讀寫速度 | 更快 | 更慢 |
相關(guān)命令
查詢當(dāng)前數(shù)據(jù)庫支持的存儲引擎
mysql> show engines;[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-kliRhbUm-1629818634013)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1622134580802.png)]
查詢當(dāng)前默認(rèn)的存儲引擎
mysql> show variables like '%storage_engine%';[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-7L2KTRxp-1629818634015)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1622134667543.png)]
查詢表的相關(guān)信息(先使用具體的數(shù)據(jù)庫)
use '數(shù)據(jù)庫名'; show table status like '表名';[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-xp2RZo7F-1629818634016)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1622135393028.png)]
查詢說明詳細(xì)資料參考鏈接:鏈接
| name | 表名 |
| Engine | 存儲引擎 |
| Version | 版本 |
| Row_format | 行格式 |
| … | … |
MyISAM
每個 MyISAM 表都以3個文件存儲在磁盤上。這些文件的名稱以表名開頭,以擴(kuò)展名指示文件類型。
.frm 文件(frame)存儲表結(jié)構(gòu);
.MYD 文件(MY Data)存儲表數(shù)據(jù);
.MYI 文件(MY Index)存儲表索引。
MySQL 里的數(shù)據(jù)默認(rèn)是存放在安裝目錄下的 data 文件夾中,也可以自己修改。
MyISAM中的B+tree
.MYI 文件組織索引的方式就是 B+tree。葉子節(jié)點的 value 處存放的就是索引所在行的磁盤文件地址。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-FBKi2oXy-1629818634019)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1622982461610.png)]
底層查找過程
首先會判斷查找條件 where 中的字段是否是索引字段,如果是就會先拿著這字段去 .MYI 文件里通過 B+tree 快速定位,從根節(jié)點開始定位查找;
找到后再把這個索引關(guān)鍵字(就是我們的條件)存放的磁盤文件地址拿到 .MYD 文件里面找,從而定位到索引所在行的記錄。
注意:表邏輯上相鄰的記錄行數(shù)據(jù)在磁盤上并不一定是物理相鄰的。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-XGnjKLCx-1629818634021)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1622982415598.png)]
InnoDB
一張 InnoDB 表底層會對應(yīng)2個文件在文件夾中進(jìn)行數(shù)據(jù)存儲。
.frm 文件(frame)存儲表結(jié)構(gòu);
.ibd 文件(InnoDB Data)存儲表索引+數(shù)據(jù)。
下面我創(chuàng)建了以 InnoDB 作為存儲引擎的一張表 t_user_innodb。
很顯然,InnoDB 把索引和數(shù)據(jù)都放在一個文件里存著了。毫無疑問,InnoDB 表里面的數(shù)據(jù)也是用 B+tree 數(shù)據(jù)結(jié)構(gòu)組織起來的。
下面我們來看看它具體是怎么存儲的。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-ggQ1MkMW-1629818634022)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1622982609363.png)]
.ibd 存儲數(shù)據(jù)的特點就是 B+tree 的葉子節(jié)點上包括了我們要的索引和該索引所在行的其它列數(shù)據(jù)。
底層查找過程:
首先會判斷查找條件 where 中的字段是否是索引字段,如果是就會先拿著這字段去 .ibd 文件里通過 B+tree 快速定位,從根節(jié)點開始定位查找;
找到后直接把這個索引關(guān)鍵字及其記錄所在行的其它列數(shù)據(jù)返回。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-QMwllPlA-1629818634023)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1622982673790.png)]
聚集(聚簇)索引
聚集索引:葉子節(jié)點包含了完整的數(shù)據(jù)記錄。
簡單來說就是索引和它所在行的其它列數(shù)據(jù)全部都在一起了。
很顯然,MyISAM 沒有聚集索引,InnoDB 有,而且 InnoDB 的主鍵索引就是天然的聚集索引。
有聚集索引當(dāng)然就有非聚集索引(稀疏索引)。對于 MyISAM 來說,它的索引就是非聚集索引。因為它的索引和數(shù)據(jù)是分開兩個文件存的:一個 .MYI 存索引,一個 .MYD 存數(shù)據(jù)。
為什么要有主鍵?
為什么 DBA 都建議表中一定要有主鍵,而且推薦使用整型自增?
因為 InnoDB 表里面的數(shù)據(jù)必須要有一個 B+tree 的索引結(jié)構(gòu)來組織、維護(hù)我們的整張表的所有數(shù)據(jù),從而形成 .idb 文件。
那和主鍵有什么關(guān)系?
如果 InnoDB 創(chuàng)建了一張沒有主鍵的表,那這張表就有可能沒有任何索引,則 MySQL會選擇所有具有唯一性并且不為 null 中的第一個字段的創(chuàng)建聚集索引。
如果沒有唯一性索引的字段就會有一個隱式字段成為表的聚集索引:而這個隱式字段,就是 InnoDB 幫我們創(chuàng)建的一個長度為 6字節(jié) 的整數(shù)列 ROW_ID,它隨著新行的插入單調(diào)增加,InnoDB 就以該列對數(shù)據(jù)進(jìn)行聚集。
使用這個 ROW_ID 列的表都共享一個相同的全局序列計數(shù)器(這是數(shù)據(jù)字典的一部分)。為了避免這個 ROW_ID 用完,所以建議表中一定要單獨(dú)建立一個主鍵字段。
為什么推薦使用整型自增?
首先整型的占用空間會比字符串小,而且在查找上比大小也會比字符串更快。字符串比大小的時候還要先轉(zhuǎn)換成 ASCII 碼再去比較。
如果使用自增的話,在插入方面的效率也會提高。
不使用自增,可能時不時會往 B+tree 的中間某一位置插入元素,當(dāng)這個節(jié)點位置放滿了的時候,節(jié)點就要進(jìn)行分裂操作(效率低)再去維護(hù),有可能樹還要進(jìn)行平衡,又是一個耗性能的操作。
都用自增就會永遠(yuǎn)都往后面插入元素,這樣索引節(jié)點分裂的概率就會小很多。
MySQL的一級索引和二級索引
一級索引和二級索引即對應(yīng)聚集索引和非聚集索引,葉子節(jié)點存放主索引和數(shù)據(jù)的樹,稱為聚集索引樹;葉子節(jié)點存放輔助索引和主索引的樹,稱為非聚集索引樹。
一級索引(聚集索引)
索引和數(shù)據(jù)存儲在一起,都存儲在同一個B+tree中的葉子節(jié)點。一般主鍵索引都是一級索引
二級索引(非聚集索引)
除聚集索引之外的所有索引都叫做二級索引,也稱輔助索引。
它的葉子節(jié)點則不會存儲其它所有列的數(shù)據(jù),就只存儲主鍵值。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-ahqUqbhF-1629818634025)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1622982870747.png)]
底層查找過程:
每次要找數(shù)據(jù)的時候,會根據(jù)它找到對應(yīng)葉子節(jié)點的主鍵值,再把它拿到聚集索引的 B+tree 中查找,從而拿到整條記錄。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-RqilMesM-1629818634025)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1622982895238.png)]
優(yōu)點:保持一致性和節(jié)省空間。
SQL執(zhí)行過程
我們的系統(tǒng)到底是如何和 MySQL 交互的?MySQL 如何幫我們存儲數(shù)據(jù)、又是如何幫我們管理事務(wù)?MySQL 在接受到我們發(fā)送的 SQL 語句時又分別做了哪些事情?
MySQL 驅(qū)動
我們的系統(tǒng)在和 MySQL 數(shù)據(jù)庫進(jìn)行通信的時候,總不可能是平白無故的就能接收和發(fā)送請求,就算是你沒有做什么操作,那總該是有其他的“人”幫我們做了一些事情,基本上使用過 MySQL 數(shù)據(jù)庫的程序員多多少少都會知道 MySQL 驅(qū)動這個概念的。就是這個 MySQL 驅(qū)動在底層幫我們做了對數(shù)據(jù)庫的連接,只有建立了連接了,才能夠有后面的交互
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-P3WEIzae-1629818634027)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1623083908291.png)]
這樣的話,在系統(tǒng)和 MySQL 進(jìn)行交互之前,MySQL 驅(qū)動會幫我們建立好連接,然后我們只需要發(fā)送 SQL 語句就可以執(zhí)行 CRUD 了。一次 SQL 請求就會建立一個連接,多個請求就會建立多個連接,那么問題來了,我們系統(tǒng)肯定不是一個人在使用的,換句話說肯定是存在多個請求同時去爭搶連接的情況。我們的 web 系統(tǒng)一般都是部署在 tomcat 容器中的,而 tomcat 是可以并發(fā)處理多個請求的,這就會導(dǎo)致多個請求會去建立多個連接,然后使用完再都去關(guān)閉,這樣會有什么問題呢?
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-cEk7yVmm-1629818634027)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1623084123562.png)]
Java系統(tǒng)在通過 MySQL 驅(qū)動和 MySQL 數(shù)據(jù)庫連接的時候是基于 TCP/IP 協(xié)議的,所以如果每個請求都是新建連接和銷毀連接,那這樣勢必會造成不必要的浪費(fèi)和性能的下降,也就說上面的多線程請求的時候頻繁的創(chuàng)建和銷毀連接顯然是不合理的。必然會大大降低我們系統(tǒng)的性能,但是如果給你提供一些固定的用來連接的線程,這樣是不是不需要反復(fù)的創(chuàng)建和銷毀連接了呢?相信懂行的朋友會會心一笑,沒錯,說的就是數(shù)據(jù)庫連接池。
數(shù)據(jù)庫連接池:維護(hù)一定的連接數(shù),方便系統(tǒng)獲取連接,使用就去池子中獲取,用完放回去就可以了,我們不需要關(guān)心連接的創(chuàng)建與銷毀,也不需要關(guān)心線程池是怎么去維護(hù)這些連接的。[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-2wvUHpYK-1629818634029)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1623084190998.png)]
常見的數(shù)據(jù)庫連接池有 Druid、C3P0、DBCP,連接池實現(xiàn)原理在這里就不深入討論了,采用連接池大大節(jié)省了不斷創(chuàng)建與銷毀線程的開銷,這就是有名的「池化」思想,不管是線程池還是 HTTP 連接池,都能看到它的身影。數(shù)據(jù)庫連接池
到這里,我們已經(jīng)知道的是我們的系統(tǒng)在訪問 MySQL 數(shù)據(jù)庫的時候,建立的連接并不是每次請求都會去創(chuàng)建的,而是從數(shù)據(jù)庫連接池中去獲取,這樣就解決了因為反復(fù)的創(chuàng)建和銷毀連接而帶來的性能損耗問題了。不過這里有個小問題,業(yè)務(wù)系統(tǒng)是并發(fā)的,而 MySQL 接受請求的線程呢,只有一個?
其實MySQL 的架構(gòu)體系中也已經(jīng)提供了這樣的一個池子,也是數(shù)據(jù)庫連池。雙方都是通過數(shù)據(jù)庫連接池來管理各個連接的,這樣一方面線程之前不需要是爭搶連接,更重要的是不需要反復(fù)的創(chuàng)建的銷毀連接。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-tBHsB7VA-1629818634030)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1623084436096.png)]
至此系統(tǒng)和 MySQL 數(shù)據(jù)庫之間的連接問題已經(jīng)說明清楚了。那么 MySQL 數(shù)據(jù)庫中的這些連接是怎么來處理的,又是誰來處理呢?
網(wǎng)絡(luò)連接必須由線程來處理
對計算基礎(chǔ)稍微有一點了解的的同學(xué)都是知道的,網(wǎng)絡(luò)中的連接都是由線程來處理的,所謂網(wǎng)絡(luò)連接說白了就是一次請求,每次請求都會有相應(yīng)的線程去處理的。也就是說對于 SQL 語句的請求在 MySQL 中是由一個個的線程去處理的。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-HyshhPSC-1629818634031)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1623084473459.png)]
那這些線程會怎么去處理這些請求?會做哪些事情?
SQL 接口
MySQL 中處理請求的線程在獲取到請求以后獲取 SQL 語句去交給 SQL 接口去處理。
查詢解析器
假如現(xiàn)在有這樣的一個 SQL
SELECT stuName,age,sex FROM students WHERE id = 1但是這個 SQL 是寫給我們?nèi)丝吹?#xff0c;機(jī)器哪里知道你在說什么?這個時候解析器就上場了。他會將 SQL 接口傳遞過來的 SQL 語句進(jìn)行解析,翻譯成 MySQL 自己能認(rèn)識的語言,至于怎么解析的就不需要在深究了,無非是自己一套相關(guān)的規(guī)則。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-3E0og3jl-1629818634032)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1625379739838.png)]
現(xiàn)在 SQL 已經(jīng)被解析成 MySQL 認(rèn)識的樣子的,那下一步是不是就是執(zhí)行嗎?理論上是這樣子的,但是 MySQL 的強(qiáng)大遠(yuǎn)不止于此,他還會幫我們選擇最優(yōu)的查詢路徑。
什么叫最優(yōu)查詢路徑?就是 MySQL 會按照自己認(rèn)為的效率最高的方式去執(zhí)行查詢
具體是怎么做到的呢?這就要說到 MySQL 的查詢優(yōu)化器了
MySQL 查詢優(yōu)化器
查詢優(yōu)化器內(nèi)部具體怎么實現(xiàn)的我們不需要是關(guān)心,我需要知道的是 MySQL 會幫我去使用他自己認(rèn)為的最好的方式去優(yōu)化這條 SQL 語句,并生成一條條的執(zhí)行計劃,比如你創(chuàng)建了多個索引,MySQL 會依據(jù)成本最小原則來選擇使用對應(yīng)的索引,這里的成本主要包括兩個方面, IO 成本和 CPU 成本
IO 成本: 即從磁盤把數(shù)據(jù)加載到內(nèi)存的成本,默認(rèn)情況下,讀取數(shù)據(jù)頁的 IO 成本是 1,MySQL 是以頁的形式讀取數(shù)據(jù)的,即當(dāng)用到某個數(shù)據(jù)時,并不會只讀取這個數(shù)據(jù),而會把這個數(shù)據(jù)相鄰的數(shù)據(jù)也一起讀到內(nèi)存中,這就是有名的程序局部性原理,所以 MySQL 每次會讀取一整頁,一頁的成本就是 1。所以 IO 的成本主要和頁的大小有關(guān)
CPU 成本:將數(shù)據(jù)讀入內(nèi)存后,還要檢測數(shù)據(jù)是否滿足條件和排序等 CPU 操作的成本,顯然它與行數(shù)有關(guān),默認(rèn)情況下,檢測記錄的成本是 0.2。
MySQL 優(yōu)化器 會計算 「IO 成本 + CPU」 成本最小的那個索引來執(zhí)行
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-em8KBQZm-1629818634034)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1625379842659.png)]
優(yōu)化器執(zhí)行選出最優(yōu)索引等步驟后,會去調(diào)用【存儲引擎接口】,【存儲引擎接口】需要由【執(zhí)行器】進(jìn)行調(diào)用,開始去執(zhí)行被 MySQL 解析過和優(yōu)化過的 SQL 語句
執(zhí)行器
執(zhí)行器是一個非常重要的組件,因為前面那些組件的操作最終必須通過執(zhí)行器去調(diào)用存儲引擎接口才能被執(zhí)行。執(zhí)行器最終最根據(jù)一系列的執(zhí)行計劃去調(diào)用存儲引擎的接口去完成 SQL 的執(zhí)行
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-GuIshQeo-1629818634035)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1625379965648.png)]
存儲引擎
查詢優(yōu)化器會調(diào)用存儲引擎的接口,去執(zhí)行 SQL,也就是說真正執(zhí)行 SQL 的動作是在存儲引擎中完成的。數(shù)據(jù)是被存放在內(nèi)存或者是磁盤中的(存儲引擎是一個非常重要的組件,開頭也已經(jīng)介紹)
我們以一個更新的SQL語句來說明,SQL 如下
UPDATE students SET stuName = '小強(qiáng)' WHERE id = 1當(dāng)我們系統(tǒng)發(fā)出這樣的查詢?nèi)ソ唤o MySQL 的時候,MySQL 會按照我們上面介紹的一系列的流程最終通過執(zhí)行器調(diào)用存儲引擎去執(zhí)行,流程圖就是上面那個。在執(zhí)行這個 SQL 的時候 SQL 語句對應(yīng)的數(shù)據(jù)要么是在內(nèi)存中,要么是在磁盤中,如果直接在磁盤中操作,那這樣的隨機(jī)IO讀寫的速度肯定讓人無法接受的,所以每次在執(zhí)行 SQL 的時候都會將其數(shù)據(jù)加載到內(nèi)存中,這塊內(nèi)存就是**【 InnoDB 】**中一個非常重要的組件:緩沖池 Buffer Pool
Buffer Pool (緩沖池)是 InnoDB 存儲引擎中非常重要的內(nèi)存結(jié)構(gòu),顧名思義,緩沖池其實就是類似 Redis 一樣的作用,起到一個緩存的作用,因為我們都知道 MySQL 的數(shù)據(jù)最終是存儲在磁盤中的,如果沒有這個 Buffer Pool 那么我們每次的數(shù)據(jù)庫請求都會磁盤中查找,這樣必然會存在 IO 操作,這肯定是無法接受的。但是有了 Buffer Pool 就是我們第一次在查詢的時候會將查詢的結(jié)果存到 Buffer Pool 中,這樣后面再有請求的時候就會先從緩沖池中去查詢,如果沒有再去磁盤中查找,然后在放到 Buffer Pool 中,如下圖
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-vmTzvXH2-1629818634037)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1625380312030.png)]
按照上面的那幅圖,這條 SQL 語句的執(zhí)行步驟大致是這樣子的
undo 日志文件:記錄數(shù)據(jù)被修改前的樣子
undo 顧名思義,就是沒有做,沒發(fā)生的意思。undo log 就是沒有發(fā)生事情(原本事情是什么)的一些日志
我們剛剛已經(jīng)說了,在準(zhǔn)備更新一條語句的時候,該條語句已經(jīng)被加載到 Buffer pool 中了,實際上這里還有這樣的操作,就是在將該條語句加載到 Buffer Pool 中的時候同時會往 undo 日志文件中插入一條日志,也就是將 id=1 的這條記錄的原來的值記錄下來。
這樣做的目的是什么?
Innodb 存儲引擎的最大特點就是支持事務(wù),如果本次更新失敗,也就是事務(wù)提交失敗,那么該事務(wù)中的所有的操作都必須回滾到執(zhí)行前的樣子,也就是說當(dāng)事務(wù)失敗的時候,也不會對原始數(shù)據(jù)有影響,看圖說話
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-9vxD7qWf-1629818634038)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1625380409620.png)]
這里說句額外話,其實 MySQL 也是一個系統(tǒng),就好比我們平時開發(fā)的 java 的功能系統(tǒng)一樣,MySQL 使用的是自己相應(yīng)的語言開發(fā)出來的一套系統(tǒng)而已,它根據(jù)自己需要的功能去設(shè)計對應(yīng)的功能,它即然能做到哪些事情,那么必然是設(shè)計者們當(dāng)初這么定義或者是根據(jù)實際的場景變更演化而來的。所以大家放平心態(tài),把 MySQL 當(dāng)作一個系統(tǒng)去了解熟悉他。
到這一步,我們的執(zhí)行的 SQL 語句已經(jīng)被加載到 Buffer Pool 中了,然后開始更新這條語句,更新的操作實際是在Buffer Pool中執(zhí)行的,那問題來了,按照我們平時開發(fā)的一套理論緩沖池中的數(shù)據(jù)和數(shù)據(jù)庫中的數(shù)據(jù)不一致時候,我們就認(rèn)為緩存中的數(shù)據(jù)是臟數(shù)據(jù),**那此時 Buffer Pool 中的數(shù)據(jù)豈不是成了臟數(shù)據(jù)?**沒錯,目前這條數(shù)據(jù)就是臟數(shù)據(jù),Buffer Pool 中的記錄是小強(qiáng) 數(shù)據(jù)庫中的記錄是旺財 ,這種情況 MySQL是怎么處理的呢,繼續(xù)往下看
redo 日志文件:記錄數(shù)據(jù)被修改后的樣子
除了從磁盤中加載文件和將操作前的記錄保存到 undo 日志文件中,其他的操作是在內(nèi)存中完成的,內(nèi)存中的數(shù)據(jù)的特點就是:斷電丟失。如果此時 MySQL 所在的服務(wù)器宕機(jī)了,那么 Buffer Pool 中的數(shù)據(jù)會全部丟失的。這個時候 redo 日志文件就需要來大顯神通了
注:redo 日志文件是 InnoDB 特有的,他是存儲引擎級別的,不是 MySQL 級別的redo 記錄的是數(shù)據(jù)修改之后的值,不管事務(wù)是否提交都會記錄下來,例如,此時將要做的是update students set stuName='小強(qiáng)' where id=1; 那么這條操作就會被記錄到 redo log buffer 中,啥?怎么又出來一個 redo log buffer ,很簡單,MySQL 為了提高效率,所以將這些操作都先放在內(nèi)存中去完成,然后會在某個時機(jī)將其持久化到磁盤中。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-if2HOTmj-1629818634040)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1625380605315.png)]
截至目前,我們應(yīng)該都熟悉了 MySQL 的執(zhí)行器調(diào)用存儲引擎是怎么將一條 SQL 加載到緩沖池和記錄哪些日志的,流程如下:
上面說的步驟都是在正常情況下的操作,但是程序的設(shè)計和優(yōu)化并不僅是為了這些正常情況而去做的,也是為了那些臨界區(qū)和極端情況下出現(xiàn)的問題去優(yōu)化設(shè)計的
這個時候如果服務(wù)器宕機(jī)了,那么緩存中的數(shù)據(jù)還是丟失了。真煩,竟然數(shù)據(jù)總是丟失,那能不能不要放在內(nèi)存中,直接保存到磁盤呢?很顯然不行,因為在上面也已經(jīng)介紹了,在內(nèi)存中的操作目的是為了提高效率。
此時,如果 MySQL 真的宕機(jī)了,那么沒關(guān)系的,因為 MySQL 會認(rèn)為本次事務(wù)是失敗的,所以數(shù)據(jù)依舊是更新前的樣子,并不會有任何的影響。
好了,語句也更新好了那么需要將更新的值提交啊,也就是需要提交本次的事務(wù)了,因為只要事務(wù)成功提交了,才會將最后的變更保存到數(shù)據(jù)庫,在提交事務(wù)前仍然會具有相關(guān)的其他操作
將 redo Log Buffer 中的數(shù)據(jù)持久化到磁盤中,就是將 redo log buffer 中的數(shù)據(jù)寫入到 redo log 磁盤文件中,一般情況下,redo log Buffer 數(shù)據(jù)寫入磁盤的策略是立即刷入磁盤(具體策略情況在下面小總結(jié)出會詳細(xì)介紹)
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-QBFN7sxV-1629818634042)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1625380795909.png)]
如果 redo log Buffer 刷入磁盤后,數(shù)據(jù)庫服務(wù)器宕機(jī)了,那我們更新的數(shù)據(jù)怎么辦?此時數(shù)據(jù)是在內(nèi)存中,數(shù)據(jù)豈不是丟失了?不,這次數(shù)據(jù)就不會丟失了,因為 redo log buffer 中的數(shù)據(jù)已經(jīng)被寫入到磁盤了,已經(jīng)被持久化了,就算數(shù)據(jù)庫宕機(jī)了,在下次重啟的時候 MySQL 也會將 redo 日志文件內(nèi)容恢復(fù)到 Buffer Pool 中(這邊我的理解是和 Redis 的持久化機(jī)制是差不多的,在 Redis 啟動的時候會檢查 rdb 或者是 aof 或者是兩者都檢查,根據(jù)持久化的文件來將數(shù)據(jù)恢復(fù)到內(nèi)存中)
到此為止,從【執(zhí)行器開始調(diào)用存儲引擎接口】做了哪些事情呢?
1.準(zhǔn)備更新一條 SQL 語句 2.MySQL(innodb)會先去緩沖池(BufferPool)中去查找這條數(shù)據(jù),沒找到就會去磁盤中查找,如果查找到就會將這條數(shù)據(jù)加載到緩沖池(BufferPool)中 3.在加載到 Buffer Pool 的同時,會將這條數(shù)據(jù)的原始記錄保存到 undo 日志文件中 4.innodb 會在 Buffer Pool 中執(zhí)行更新操作 5.更新后的數(shù)據(jù)會記錄在 redo log buffer 中 6.MySQL 提交事務(wù)的時候,會將 redo log buffer 中的數(shù)據(jù)寫入到 redo 日志文件中 刷磁盤可以通過 innodb_flush_log_at_trx_commit 參數(shù)來設(shè)置 值為 0 表示不刷入磁盤 值為 1 表示立即刷入磁盤 值為 2 表示先刷到 os cache 7.myslq 重啟的時候會將 redo 日志恢復(fù)到緩沖池中截止到目前位置,MySQL 的【執(zhí)行器】調(diào)用【存儲引擎的接口】去執(zhí)行【執(zhí)行計劃】提供的 SQL 的時候 InnoDB 做了哪些事情也就基本差不多了,但是這還沒完。下面還需要介紹下 MySQL 級別的日志文件 bin log
bin log 日志文件:記錄整個操作過程
上面介紹到的**redo log是 InnoDB 存儲引擎特有的日志文件,而bin log屬于是 MySQL 級別的日志**。redo log記錄的東西是偏向于物理性質(zhì)的,如:“對什么數(shù)據(jù),做了什么修改”。bin log是偏向于邏輯性質(zhì)的,類似于:“對 students 表中的 id 為 1 的記錄做了更新操作” 兩者的主要特點總結(jié)如下:
| 文件大小 | redo log 的大小是固定的(配置中也可以設(shè)置,一般默認(rèn)的就足夠了) | bin log 可通過配置參數(shù)max_bin log_size設(shè)置每個bin log文件的大小(但是一般不建議修改)。 |
| 實現(xiàn)方式 | redo log是InnoDB引擎層實現(xiàn)的(也就是說是 Innodb 存儲引起過獨(dú)有的) | bin log是 MySQL 層實現(xiàn)的,所有引擎都可以使用 bin log日志 |
| 記錄方式 | redo log 采用循環(huán)寫的方式記錄,當(dāng)寫到結(jié)尾時,會回到開頭循環(huán)寫日志。 | bin log 通過追加的方式記錄,當(dāng)文件大小大于給定值后,后續(xù)的日志會記錄到新的文件上 |
| 使用場景 | redo log適用于崩潰恢復(fù)(crash-safe)(這一點其實非常類似與 Redis 的持久化特征) | bin log適用于主從復(fù)制和數(shù)據(jù)恢復(fù) |
bin log文件是如何刷入磁盤的?
bin log 的刷盤是有相關(guān)的策略的,策略可以通過sync_bin log來修改,默認(rèn)為 0,表示先寫入 os cache,也就是說在提交事務(wù)的時候,數(shù)據(jù)不會直接到磁盤中,這樣如果宕機(jī)bin log數(shù)據(jù)仍然會丟失。所以建議將sync_bin log設(shè)置為 1 表示直接將數(shù)據(jù)寫入到磁盤文件中。
刷入 bin log 有以下幾種【模式】
1、 STATMENT
基于 SQL 語句的復(fù)制(statement-based replication, SBR),每一條會修改數(shù)據(jù)的 SQL 語句會記錄到 bin log 中
【優(yōu)點】:不需要記錄每一行的變化,減少了 bin log 日志量,節(jié)約了 IO , 從而提高了性能
【缺點】:在某些情況下會導(dǎo)致主從數(shù)據(jù)不一致,比如執(zhí)行sysdate()、slepp()等
2、ROW
基于行的復(fù)制(row-based replication, RBR),不記錄每條SQL語句的上下文信息,僅需記錄哪條數(shù)據(jù)被修改了
【優(yōu)點】:不會出現(xiàn)某些特定情況下的存儲過程、或 function、或 trigger 的調(diào)用和觸發(fā)無法被正確復(fù)制的問題
【缺點】:會產(chǎn)生大量的日志,尤其是 alter table 的時候會讓日志暴漲
3、MIXED
基于 STATMENT 和 ROW 兩種模式的混合復(fù)制( mixed-based replication, MBR ),一般的復(fù)制使用 STATEMENT 模式保存 bin log ,對于 STATEMENT 模式無法復(fù)制的操作使用 ROW 模式保存 bin log
那既然bin log也是日志文件,那它是在什么記錄數(shù)據(jù)的呢?
其實 MySQL 在提交事務(wù)的時候,不僅僅會將 redo log buffer 中的數(shù)據(jù)寫入到redo log 文件中,同時也會將本次修改的數(shù)據(jù)記錄到 bin log文件中,同時會將本次修改的bin log文件名和修改的內(nèi)容在bin log中的位置記錄到redo log中,最后還會在redo log最后寫入 commit 標(biāo)記,這樣就表示本次事務(wù)被成功的提交了。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-Qo6PV4lC-1629818634043)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1625383328114.png)]
如果在數(shù)據(jù)被寫入到bin log文件的時候,剛寫完,數(shù)據(jù)庫宕機(jī)了,數(shù)據(jù)會丟失嗎?
首先可以確定的是,只要redo log最后沒有 commit 標(biāo)記,說明本次的事務(wù)一定是失敗的。但是數(shù)據(jù)是沒有丟失了,因為已經(jīng)被記錄到redo log的磁盤文件中了。在 MySQL 重啟的時候,就會將 redo log 中的數(shù)據(jù)恢復(fù)(加載)到Buffer Pool中。
好了,到目前為止,一個更新操作我們基本介紹得差不多,但是你有沒有感覺少了哪件事情還沒有做?是不是你也發(fā)現(xiàn)這個時候被更新記錄僅僅是在內(nèi)存中執(zhí)行的,哪怕是宕機(jī)又恢復(fù)了也僅僅是將更新后的記錄加載到Buffer Pool中,這個時候 MySQL 數(shù)據(jù)庫中的這條記錄依舊是舊值,也就是說內(nèi)存中的數(shù)據(jù)在我們看來依舊是臟數(shù)據(jù),那這個時候怎么辦呢?
其實 MySQL 會有一個【后臺線程】,它會在某個時機(jī)將我們Buffer Pool中的臟數(shù)據(jù)刷到 MySQL 數(shù)據(jù)庫中,這樣就將內(nèi)存和數(shù)據(jù)庫的數(shù)據(jù)保持統(tǒng)一了。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-xaea71qR-1629818634044)(C:\Users\17996\AppData\Roaming\Typora\typora-user-images\1625384652041.png)]
到此,關(guān)于Buffer Pool、Redo Log Buffer 和undo log、redo log、bin log 概念以及關(guān)系就基本差不多了。
我們再回顧下
1. Buffer Pool 是 MySQL 的一個非常重要的組件,因為針對數(shù)據(jù)庫的增刪改操作都是在 Buffer Pool 中完成的 2. Undo log 記錄的是數(shù)據(jù)操作前的樣子 3. redo log 記錄的是數(shù)據(jù)被操作后的樣子(redo log 是 Innodb 存儲引擎特有) 4. bin log 記錄的是整個操作記錄(這個對于主從復(fù)制具有非常重要的意義)從準(zhǔn)備更新一條數(shù)據(jù)到事務(wù)的提交的流程描述
1. 首先執(zhí)行器根據(jù) MySQL 的執(zhí)行計劃來查詢數(shù)據(jù),先是從緩存池中查詢數(shù)據(jù),如果沒有就會去數(shù)據(jù)庫中查詢,如果查詢到了就將其放到緩存池中 2. 在數(shù)據(jù)被緩存到緩存池的同時,會寫入 undo log 日志文件 3. 更新的動作是在 BufferPool 中完成的,同時會將更新后的數(shù)據(jù)添加到 redo log buffer 中 4. 完成以后就可以提交事務(wù),在提交的同時會做以下三件事 5. (第一件事)將redo log buffer中的數(shù)據(jù)刷入到 redo log 文件中 6. (第二件事)將本次操作記錄寫入到 bin log文件中 7. (第三件事)將 bin log 文件名字和更新內(nèi)容在 bin log 中的位置記錄到redo log中,同時在 redo log 最后添加 commit 標(biāo)記至此表示整個更新事務(wù)已經(jīng)完成
文章原文:鏈接
binlog
binlog,即二進(jìn)制日志,它記錄了數(shù)據(jù)庫上的所有改變,并以二進(jìn)制的形式保存在磁盤中;它可以用來查看數(shù)據(jù)庫的變更歷史、數(shù)據(jù)庫增量備份和恢復(fù)、MySQL的復(fù)制(主從數(shù)據(jù)庫的復(fù)制)。
binlog有三種格式
1、【Statement】基于SQL語句的復(fù)制(statement-based replication,SBR),每一條會修改數(shù)據(jù)的sql都會記錄在binlog中。
優(yōu)點:不需要記錄每一行的變化,減少了binlog日志量,節(jié)約了IO,提高性能。 缺點:由于記錄的只是執(zhí)行語句,為了這些語句能在slave上正確運(yùn)行,因此還必須記錄每條語句在執(zhí)行的時候的一些相關(guān)信息,以保證所有語句能在slave得到和在master端執(zhí)行時候相同 的結(jié)果。另外mysql 的復(fù)制,像一些特定函數(shù)功能,slave可與master上要保持一致會有很多相關(guān)問題。 ps:相比row能節(jié)約多少性能與日志量,這個取決于應(yīng)用的SQL情況,正常同一條記錄修改或者插入row格式所產(chǎn)生的日志量還小于Statement產(chǎn)生的日志量,但是考慮到如果帶條件的update操作,以及整表刪除,alter表等操作,ROW格式會產(chǎn)生大量日志,因此在考慮是否使用ROW格式日志時應(yīng)該跟據(jù)應(yīng)用的實際情況,其所產(chǎn)生的日志量會增加多少,以及帶來的IO性能問題。2、【Row】基于行的復(fù)制(row-based replication,RBR),5.1.5版本的MySQL才開始支持row level的復(fù)制,它不記錄sql語句上下文相關(guān)信息,僅保存哪條記錄被修改。
優(yōu)點: binlog中可以不記錄執(zhí)行的sql語句的上下文相關(guān)的信息,僅需要記錄那一條記錄被修改成什么了。所以rowlevel的日志內(nèi)容會非常清楚的記錄下每一行數(shù)據(jù)修改的細(xì)節(jié)。而且不會出現(xiàn)某些特定情況下的存儲過程,或function,以及trigger的調(diào)用和觸發(fā)無法被正確復(fù)制的問題. 缺點:所有的執(zhí)行的語句當(dāng)記錄到日志中的時候,都將以每行記錄的修改來記錄,這樣可能會產(chǎn)生大量的日志內(nèi)容。 ps:新版本的MySQL中對row level模式也被做了優(yōu)化,并不是所有的修改都會以row level來記錄,像遇到表結(jié)構(gòu)變更的時候就會以statement模式來記錄,如果sql語句確實就是update或者delete等修改數(shù)據(jù)的語句,那么還是會記錄所有行的變更。3、【Mixed】混合模式復(fù)制(mixed-based replication,MBR)從5.1.8版本開始,MySQL提供了Mixed格式,實際上就是Statement與Row的結(jié)合。
在Mixed模式下,一般的語句修改使用statment格式保存binlog,如一些函數(shù),statement無法完成主從復(fù)制的操作,則采用row格式保存binlog,MySQL會根據(jù)執(zhí)行的每一條具體的sql語句來區(qū)分對待記錄的日志形式,也就是在Statement和Row之間選擇一種。查看是否開啟了binlog
mysql> show variables like 'log_%'; +---------------------------------+-------------+ | Variable_name | Value | +---------------------------------+-------------+ | log_bin | OFF | | log_bin_trust_function_creators | OFF | | log_error | .\mysql.err | | log_queries_not_using_indexes | OFF | | log_slave_updates | OFF | | log_slow_queries | ON | | log_warnings | 1 | +---------------------------------+-------------+mysql的配置文件my.ini添加如下配置:
# Binary Logging. log-bin=mysql-bin binlog-format=Row重啟MySQL服務(wù)之后驗證binlog是否開啟:
show variables like 'log_bin'; show binary logs;binlog文件的位置:如果在修改my.ini的binlog時給的是全路徑,那么生成的日志文件就在指定的目錄下;如果如以上步驟中只給一個名字,那么生成的binlog日志的位置為(windwos為例):
C:\ProgramData\MySQL\MySQL Server 5.5\data服務(wù)重啟之后就會在指定目錄下產(chǎn)生mysql-bin.000001和mysql-bin.index文件。
查看指定binlog文件的內(nèi)容
mysql> show binlog events in 'mysql-bin.000001';只查看第一個binlog文件的內(nèi)容
mysql> show binlog events;查看帶有序號的binlog文件內(nèi)容
mysql> show binlog events in 'mysql-bin.000002'; +------------------+-----+-------------+-----------+-------------+----------------------+ | Log_name | Pos | Event_type | Server_id | End_log_pos | Info | +------------------+-----+-------------+-----------+-------------+----------------------+ | mysql-bin.000002 | 4 | Format_desc|1 |107 | Server ver: 5.5.58-log, Binlog ver: 4 | | mysql-bin.000002 |107| Query |1 | 175 | BEGIN | | mysql-bin.000002 |175| Query |1 |268 | use `test`; delete from bean where id = 10| | mysql-bin.000002 |268| Xid |1 |295 | COMMIT /* xid=4 */ | +------------------+-----+-------------+-----------+-------------+----------------------+ 4 rows in set (0.02 sec)1、當(dāng)停止或重啟服務(wù)器時,服務(wù)器會把日志文件記入下一個日志文件,Mysql會在重啟時生成一個新的日志文件,文件序號遞增;
2、 如果日志文件超過max_binlog_size(默認(rèn)值1G)系統(tǒng)變量配置的上限時,也會生成新的日志文件(在這里需要注意的是,如果你正使用大的事務(wù),二進(jìn)制日志還會超過max_binlog_size,不會生成新的日志文件,事務(wù)全寫入一個二進(jìn)制日志中,這種情況主要是為了保證事務(wù)的完整性)
3、 日志被刷新時,新生成一個日志文件。
相關(guān)參考
1、https://blog.jcole.us/innodb/
2、MySQL的數(shù)據(jù)存在磁盤上到底長什么樣
3、阿里二面: 詳解一條 SQL 的執(zhí)行過程:https://mp.weixin.qq.com/s?__biz=MzU4ODI1MjA3NQ==&mid=2247499508&idx=2&sn=446d53f109c058b4c389cbfe7b0c3c31&chksm=fddd2830caaaa12650240644d91aa32bbc0754c993e0bd236a520c79e41370126d2d4e7e90fb&scene=132#wechat_redirect
PostreSQL
常用命令
linux命令行直接運(yùn)行pgsql命令
PGPASSWORD=password psql -h 127.0.0.1 -p 5432 -d basicframe -U basicframe -c "SELECT * FROM t_acc_user"shell腳本連接postgresql并操作數(shù)據(jù)庫
#!/bin/shsql="UPDATE t_acc_user SET status = 'normal'" PGPASSWORD=pgsqlpwd psql -h 127.0.0.1 -p 5432 -d basicframe -U basicframe -c "$sql"切換用戶
su postgres bash-4.2$ psql -d basicframe psql (9.3.6) Type "help" for help. basicframe=# select * from t_acc_master;分組后拼接多行
分組查詢結(jié)果做字段拼接
| 1 | 張三 |
| 2 | 李四 |
| 3 | 王五 |
| 1 | 張四 |
| 2 | 李五 |
| 2 | 李一 |
需求是根據(jù)name_type分組,李姓的在一組,張姓的分為一組,查詢結(jié)果如下:
| 1 | 張三,張四 |
| 2 | 李四,李五,李一 |
| 3 | 王五 |
MySQL可以很方便的利用group_concat函數(shù)來實現(xiàn),但是postgres9.0版本之前沒有這樣的函數(shù),需要進(jìn)行自定義函數(shù)【參考博客】。我們可以用**【array_agg()】,【string_agg()】**等函數(shù)來實現(xiàn)。注意string_agg()方法參數(shù)都必須為字符串。
array_agg
select name_type,array_to_string(array_agg(name),',') as names from t_acc_user group by name_type;string_agg
select name_type, string_agg(name,',') as names from t_acc_user group by name_type;根據(jù)條件修改對應(yīng)字段
-- t_acc_master_mapping:映射表 name_old:舊 name_new:新 UPDATE t_acc_master t01 SET name = t02.name_new FROM (SELECT * FROM t_acc_master_mapping) t02 WHERE t01.name = t02.name_old AND t01.status = 'normal';鎖表問題解決
在使用pgsql刪除數(shù)據(jù)庫表(DROP)操作時候出現(xiàn)阻塞的現(xiàn)象,由此懷疑是鎖表導(dǎo)致。
排查數(shù)據(jù)庫表是否鎖住
SELECT oid FROM pg_class WHERE relname = 't_user'; -- 可能鎖表的表名 SELECT pid FROM pg_locks WHERE relation = '2523'; -- 由上面查出的oid如果上面的SQL查詢到了結(jié)果,則表示該表被鎖,執(zhí)行下面SQL釋放鎖定
SELECT pg_cancel_backend('100045'); -- 上面查到的pidctid的淺談
ctid: 表示數(shù)據(jù)記錄的物理行當(dāng)信息,指的是 一條記錄位于哪個數(shù)據(jù)塊的哪個位移上面。 跟oracle中偽列 rowid 的意義一樣的,只是形式不一樣。例如這有個一表t_org_user,查看每行記錄的ctid情況:
SELECT ctid, * FROM t_org_user;查詢結(jié)果,格式(blockid,itemid),拿其中(0,1)來說,0表示塊id,1表示在這塊第一條記錄。
ctid | id | name | cnname (0,1) 1 data01 測試01 (0,2) 2 data02 測試02 (0,3) 3 data01 測試01 (0,4) 1 data01 測試01ctid去重
我們知道rowid在oracle有個重要的作用;被用作表記錄去重;同理 ctid在postgresql里面同樣可以使用。例如t_org_user表id為1有兩條記錄
DELETE FROM t_org_user WHERE ctid NOT IN ( SELECT min( ctid ) FROM t_org_user GROUP BY id );根據(jù)id去重后
ctid | id | name | cnname (0,1) 1 data01 測試01 (0,2) 2 data02 測試02 (0,3) 3 data01 測試01剛剛我們刪除了(0,4)這條記錄,現(xiàn)在我們重新插入一條新的記錄之后查詢
ctid | id | name | cnname (0,1) 1 data01 測試01 (0,2) 2 data02 測試02 (0,3) 3 data01 測試01 (0,5) 1 data01 測試01為什么不是(0,4),而是(0,5)?這個跟postgresql多版本事務(wù)有關(guān),這是postgresql的特性,postgresql里面沒有回滾段的概念,那怎么把(0,5)在顯示呢?想這塊(0,5)的空間再存放數(shù)據(jù),postgresql里面有AUTOVACUUM進(jìn)程,當(dāng)然我們也可以手動回收這段空間;
刪除(0,5)這條數(shù)據(jù)之后執(zhí)行:
vacuum t_org_user;再次插入之后就是從(0,4)開始的,vacuum: 回收未顯示的物理位置;標(biāo)明可以繼續(xù)使用。
select relpages,reltuples from pg_class where relname = 't_org_user';我們可以借助系統(tǒng)視圖pg_class,其中relpages,reltuples分別代表塊數(shù),記錄數(shù)
generate_series序列函數(shù)
INSERT INTO t_org_user SELECT generate_series ( 1, 1000 ), 'data' || generate_series ( 1, 1000 ), '中文' || generate_series ( 1, 1000 );generate_series為一個序列函數(shù),例如產(chǎn)生1-100就是generate_series(1,100),產(chǎn)生0-100直接的偶數(shù)就是generate_series(0,100,2),其中的0表示序列開始位置;100代表結(jié)束位置;2為偏移量。
未指定字段類型問題(type “unknown”)
SELECT (array_to_string(array_agg(t.cmdaudit),'#!')) as cmdaudit FROM ( SELECT 'test-new-xx' as cmdaudit from t_acc_master ) tpostgres數(shù)據(jù)庫較低版本(9.3.6)存在以下問題,這里的問題是'' as name實際上并沒有為值指定類型。這是unknown類型,而 PostgreSQL 通常從諸如您將其插入到哪個列或您將其傳遞給哪個函數(shù)之類的東西推斷出真正的類型。
Could not determine polymorphic type because input has type "unknown"類型化定義
TEXT '' AS nameCAST
CAST('' AS text) AS namePostgreSQL 簡寫
''::text案例
SELECT (array_to_string(array_agg(t.cmdaudit),'#!')) as cmdaudit FROM ( SELECT 'test-new-xx' ::text as cmdaudit from t_acc_master ) tSELECT (array_to_string(array_agg(t.cmdaudit),'#!')) as cmdaudit FROM ( SELECT VARCHAR 'test-new-xx' as cmdaudit from t_acc_master ) tSELECT (array_to_string(array_agg(t.cmdaudit),'#!')) as cmdaudit FROM ( SELECT TEXT 'test-new-xx' as cmdaudit from t_acc_master ) tSELECT (array_to_string(array_agg(t.cmdaudit),'#!')) as cmdaudit FROM ( SELECT CAST('test-new-xx' AS text) as cmdaudit from t_acc_master ) t自定義函數(shù)索引丟失
測試場景: t_auth_r_master_slave授權(quán)表 200w 行數(shù)據(jù),masterId、resId有索引 :
CREATE INDEX resid_index ON t_auth_r_master_slave (resid); CREATE INDEX masterid_index ON t_auth_r_master_slave (masterid);EXPLAIN ANALYZE進(jìn)行分析
EXPLAIN ANALYZE SELECT * FROM t_auth_r_master_slave LIMIT 10 SELECT count(*) FROM t_auth_r_master_slave使用函數(shù)get_master_auth耗時11s
EXPLAIN ANALYZEselectt.id,t.ruleid,t.masterid,t.resid from get_master_auth('del') t where t.masterid = '1140131' and t.resid = '38100217' and t.slaveid is null;Function Scan on get_master_auth t (cost=0.25..15.25 rows=1 width=872) (actual time=9719.881..10632.622 rows=2 loops=1)Filter: (((masterid)::text = '1140131'::text) AND ((resid)::text = '38100217'::text))Rows Removed by Filter: 2463409 Total runtime: 10721.853 ms使用原始sql耗時0.01s
EXPLAIN ANALYZE selectt.id,t.ruleid,t.masterid,t.resid from (SELECT t.* FROM t_auth_r_master_slave tJOIN t_acc_master m ON m.id=t.masterid AND m.status !='del'JOIN t_auth_res r ON r.id=t.resid AND r.status !='del'JOIN t_acc_slave s ON s.id=t.slaveid and s.status != 'del'WHERE t.status!='del'UNION ALLSELECT t.* FROM t_auth_r_master_slave tJOIN t_acc_master m ON m.id=t.masterid AND m.status !='del'JOIN t_auth_res r ON r.id=t.resid AND r.status !='del'WHERE t.status!='del' and t.slaveid is null) t where t.masterid = '1' and t.resid = '1' and t.slaveid is null;匹配上索引:Bitmap Index Scan on resid_index…
Append (cost=749.97..1555.83 rows=2 width=35) (actual time=513.408..513.408 rows=0 loops=1)-> Subquery Scan on "*SELECT* 1" (cost=749.97..782.07 rows=1 width=35) (actual time=506.057..506.057 rows=0 loops=1)-> Nested Loop (cost=749.97..782.06 rows=1 width=1398) (actual time=506.055..506.055 rows=0 loops=1)-> Nested Loop (cost=749.68..773.74 rows=1 width=1398) (actual time=506.053..506.053 rows=0 loops=1)-> Nested Loop (cost=749.39..765.43 rows=1 width=1398) (actual time=506.052..506.052 rows=0 loops=1)-> Bitmap Heap Scan on t_auth_r_master_slave t (cost=749.11..757.12 rows=1 width=1398) (actual time=506.050..506.050 rows=0 loops=1)Recheck Cond: (((resid)::text = '38100217'::text) AND ((masterid)::text = '1140131'::text))Rows Removed by Index Recheck: 9Filter: ((slaveid IS NULL) AND ((status)::text <> 'del'::text))Rows Removed by Filter: 2-> BitmapAnd (cost=749.11..749.11 rows=2 width=0) (actual time=505.392..505.392 rows=0 loops=1)-> Bitmap Index Scan on resid_index (cost=0.00..14.54 rows=281 width=0) (actual time=12.929..12.929 rows=70 loops=1)Index Cond: ((resid)::text = '38100217'::text)-> Bitmap Index Scan on masterid_index (cost=0.00..734.32 rows=21586 width=0) (actual time=492.214..492.214 rows=22169 loops=1)Index Cond: ((masterid)::text = '1140131'::text)-> Index Scan using t_acc_master_pkey on t_acc_master m (cost=0.28..8.30 rows=1 width=7) (never executed)Index Cond: ((id)::text = '1140131'::text)Filter: ((status)::text <> 'del'::text)-> Index Scan using t_auth_res_pkey on t_auth_res r (cost=0.29..8.31 rows=1 width=9) (never executed)Index Cond: ((id)::text = '38100217'::text)Filter: ((status)::text <> 'del'::text)-> Index Scan using t_acc_slave_pkey on t_acc_slave s (cost=0.29..8.31 rows=1 width=9) (never executed)Index Cond: ((id)::text = (t.slaveid)::text)Filter: ((status)::text <> 'del'::text)-> Subquery Scan on "*SELECT* 2" (cost=749.68..773.75 rows=1 width=35) (actual time=7.348..7.348 rows=0 loops=1)-> Nested Loop (cost=749.68..773.74 rows=1 width=1398) (actual time=7.346..7.346 rows=0 loops=1)-> Nested Loop (cost=749.39..765.43 rows=1 width=1398) (actual time=7.345..7.345 rows=0 loops=1)-> Bitmap Heap Scan on t_auth_r_master_slave t_1 (cost=749.11..757.12 rows=1 width=1398) (actual time=7.343..7.343 rows=0 loops=1)Recheck Cond: (((resid)::text = '38100217'::text) AND ((masterid)::text = '1140131'::text))Rows Removed by Index Recheck: 9Filter: ((slaveid IS NULL) AND (slaveid IS NULL) AND ((status)::text <> 'del'::text))Rows Removed by Filter: 2-> BitmapAnd (cost=749.11..749.11 rows=2 width=0) (actual time=7.315..7.315 rows=0 loops=1)-> Bitmap Index Scan on resid_index (cost=0.00..14.54 rows=281 width=0) (actual time=0.075..0.075 rows=70 loops=1)Index Cond: ((resid)::text = '38100217'::text)-> Bitmap Index Scan on masterid_index (cost=0.00..734.32 rows=21586 width=0) (actual time=7.122..7.122 rows=22169 loops=1)Index Cond: ((masterid)::text = '1140131'::text)-> Index Scan using t_acc_master_pkey on t_acc_master m_1 (cost=0.28..8.30 rows=1 width=7) (never executed)Index Cond: ((id)::text = '1140131'::text)Filter: ((status)::text <> 'del'::text)-> Index Scan using t_auth_res_pkey on t_auth_res r_1 (cost=0.29..8.31 rows=1 width=9) (never executed)Index Cond: ((id)::text = '38100217'::text)Filter: ((status)::text <> 'del'::text) Total runtime: 514.501 mshttps://www.jb51.cc/postgresql/192456.html
https://blog.csdn.net/u011944141/article/details/98056440
相關(guān)參考
pgsql:https://www.cnblogs.com/lottu/category/535826.html
pgsql數(shù)據(jù)遷移:https://www.cnblogs.com/lottu/category/838299.html
pgsql高可用:https://www.cnblogs.com/lottu/category/841292.html
Oracle
總結(jié)
- 上一篇: javax.servlet-api 简介
- 下一篇: Mongo数据库的操作