## 背景
在RDS環境中,多租戶使用同一臺主機是很常見的事情,為了隔離用戶資源,有很多手段,例如使用虛擬機,或者CGROUP技術。以CGROUP為例,可以控制進程的CPU使用、內存使用、塊設備的IOPS或者吞吐速率等資源使用。限制資源的好處是可以在共用的硬件層面為多個用戶提供承諾的性能指標。當然這種方法也有一定的弊端,例如當用戶需要運行消耗較多資源的SQL的時候,無法利用機器的空閑資源,因為它被限制住了。還有一些弊端可能導致RDS的不穩定,本文將展開討論其中的弊端之一,資源限制是如何導致備庫延遲的。
## 分析過程
創建一個實例,32G內存(確保測試時不被OOM),1000GB存儲空間,將塊設備的讀寫IOPS都限制到200。
修改限制可以在控制臺或者主機上操作,主機上操作舉例:
獲取postmaster進程號
~~~
$ps -ewf|grep pg468619
pg468619 24097 1 0 Jul29 ? 00:00:17 /path/to/postgres -D /path/to/data
~~~
查看這個進程所在的組
~~~
$cat /proc/24097/cgroup
3:memory:/rule3038
2:cpu:/rule3038
1:blkio:/rule3038
~~~
目前已限制在200
~~~
$cat /path/to/rule3038/blkio.throttle.read_iops_device
8:0 200
8:16 200
$cat /path/to/rds/rule3038/blkio.throttle.write_iops_device
8:0 200
8:16 200
~~~
如果沒有限制,可以直接修改以上兩個文件,或者使用cgset例如:
~~~
cgset -r blkio.throttle.write_iops_device='8:0 200' rule3038
cgset -r blkio.throttle.write_iops_device='8:16 200' rule3038
~~~
對應的塊設備
~~~
$ll /dev/sda
brw-rw---- 1 root disk 8, 0 May 18 13:59 /dev/sda
$ll /dev/sdb
brw-rw---- 1 root disk 8, 16 Jul 31 07:45 /dev/sdb
~~~
接下來需要做的是創建測試用戶,以及測試函數和測試表:
連接到數據庫
~~~
$psql -p 3038 -U pg468619 postgres
~~~
創建測試用戶
~~~
postgres=# create role digoal login encrypted password 'digoal';
postgres=# grant all on database postgres to digoal;
~~~
創建測試表,用于存儲主節點插入XLOG的LSN以及備庫接收、寫、FLUSH、APPLY的XLOG LSN位置,以便計算主節點產生XLOG的速度和備庫延遲的字節數。
~~~
postgres=# create table tbl_xlog_insert(id int,
sec numeric default EXTRACT(EPOCH from clock_timestamp()),
xlog_lsn text default pg_current_xlog_insert_location(),
sent_lsn pg_lsn,
write_lsn pg_lsn,
flush_lsn pg_lsn,
replay_lsn pg_lsn);
~~~
創建測試函數,目的是快速的產生大量XLOG,同時記錄XLOG的位置到測試表。
~~~
postgres=# \c postgres postgres
postgres=# create or replace function f_test(int) returns void as $_$
declare
v_tbl name := 'tbl_'||pg_backend_pid();
ddl text := ' (id int8';
begin
set synchronous_commit=off;
execute 'DROP TABLE IF EXISTS '||v_tbl;
-- 創建一個201個字段的測試表.
for i in 1..200 loop
ddl := ddl||',c'||i||' int8 default 0';
end loop;
ddl := ddl||') ';
execute 'create table '||v_tbl||ddl||' with (autovacuum_enabled=off, toast.autovacuum_enabled=off)';
execute 'insert into '||v_tbl||' select generate_series(1,'||$1||')';
execute 'DROP TABLE IF EXISTS '||v_tbl;
-- 插入當前的XLOG位置, standby接收到的位置. 可能有一定的反饋延遲,延遲10毫秒
perform pg_sleep(0.01);
insert into tbl_xlog_insert(id, sent_lsn,write_lsn,flush_lsn,replay_lsn) select pg_backend_pid(), sent_location,write_location,flush_location,replay_location from pg_stat_replication limit 1;
end;
$_$ language plpgsql strict security definer;
postgres=# GRANT execute on function f_test(int) to digoal;
~~~
在測試機創建測試腳本
~~~
postgres@digoal-> cat test.sql
select f_test(5000);
~~~
測試時,使用1個連接就夠了,太多了又會帶來新的問題,心跳檢測失敗可能導致主備切換,這也是目前資源限制引起的一個問題,后面再來談這個問題如何處理。
~~~
postgres@digoal-> pgbench -M prepared -n -r -f ./test.sql -c 1 -j 1 -t 100 -h digoal0001.pg.rds.aliyuncs.com -p 3999 -U digoal postgres
~~~
在主節點查詢主庫產生XLOG的速度,以及備庫延遲的情況:
~~~
postgres=# select round(0.001*pg_xlog_location_diff((lead(xlog_lsn,1) over(order by sec))::pg_lsn,xlog_lsn::pg_lsn)/(case lead(sec,1) over(order by sec)-sec when 0 then 1 else lead(sec,1) over(order by sec)-sec end), 2)as gen_xlog_KBpsec,
round(pg_xlog_location_diff(xlog_lsn::pg_lsn,sent_lsn)/1024.0, 2) AS sent_xlog_delay_KB,
round(pg_xlog_location_diff(xlog_lsn::pg_lsn,write_lsn)/1024.0, 2) AS write_xlog_delay_KB,
round(pg_xlog_location_diff(xlog_lsn::pg_lsn,flush_lsn)/1024.0, 2) AS flush_xlog_delay_KB,
round(pg_xlog_location_diff(xlog_lsn::pg_lsn,replay_lsn)/1024.0, 2) AS replay_xlog_delay_KB
from tbl_xlog_insert where id=(select id from tbl_xlog_insert order by sec desc limit 1) order by sec;
gen_xlog_kbpsec | sent_xlog_delay_kb | write_xlog_delay_kb | flush_xlog_delay_kb | replay_xlog_delay_kb
-----------------+--------------------+---------------------+---------------------+----------------------
814.87 | 8616.37 | 8616.37 | 8616.37 | 8616.54
809.63 | 10752.44 | 13952.44 | 16896.44 | 16898.04
802.75 | 12747.91 | 14795.91 | 17227.91 | 17227.92
821.96 | 12173.92 | 16269.92 | 19981.92 | 23022.60
820.87 | 13167.77 | 17515.32 | 19799.77 | 23168.63
581.98 | 15177.93 | 19553.93 | 23009.93 | 26213.85
1320.19 | 12735.36 | 17087.36 | 20415.36 | 24112.03
818.03 | 17281.54 | 21761.54 | 25729.54 | 28560.27
808.66 | 17093.73 | 21445.73 | 25413.73 | 26377.87
. . . . .
. . . . .
. . . . .
. . . . .
806.56 | 79064.04 | 83544.04 | 87128.04 | 90281.66
804.10 | 82864.95 | 87472.95 | 87472.95 | 92209.77
802.53 | 84598.83 | 88310.83 | 91766.83 | 95275.68
598.90 | 82998.66 | 90038.66 | 90038.66 | 93495.39
1304.52 | 84704.81 | 89184.81 | 92768.81 | 92768.95
807.26 | 86847.66 | 91199.66 | 94527.66 | 97583.47
823.86 | 89209.00 | 93561.00 | 97785.00 | 97785.32
805.17 | 96967.23 | 101319.23 | 105287.23 | 108879.23
829.41 | 101531.95 | 105883.95 | 109979.95 | 113468.85
797.81 | 101999.23 | 106479.23 | 110447.23 | 110448.48
609.47 | 102789.51 | 107269.51 | 111109.51 | 114741.74
| 99381.25 | 103861.25 | 107573.25 | 111083.62
(100 rows)
~~~
XLOG產生速度約800KB/s, 由于XLOG盤的IOPS限制,導致STANDBY延遲不斷增大。為了排除并不是網絡延遲導致的延遲,我們可以使用systemtap跟蹤wal sender、wal writter進程的IOPS以及wal sender進程的網絡吞吐。
需要先安裝kernel debuginfo,跟蹤指定postgres wal writter進程,獲取讀寫IOPS:
~~~
\# vi io.stp
global reads, writes, total_io
probe vfs.read.return {
reads[execname()] += 1
}
probe vfs.write.return {
writes[execname()] += 1
}
\# print every 1 seconds
probe timer.s(1) {
foreach (name in writes)
total_io[name] += writes[name]
foreach (name in reads)
total_io[name] += reads[name]
printf ("%16s\t%10s\t%10s\n", "Process", "SUM Read IO", "SUM Written IO")
foreach (name in total_io-)
printf("%16s\t%10d\t%10d\n", name,
reads[name], writes[name])
delete reads
delete writes
print("\n")
}
\# print total_io when exit
probe end {
foreach (name in total_io-)
printf("%16s\t%10d\t%10d\n", name,
reads[name], writes[name])
delete total_io
print("\n")
}
\# stap -vp 5 -DMAXSKIPPED=9999 -DSTP_NO_OVERLOAD -DMAXTRYLOCK=100 ./io.stp -x $pid
~~~
跟蹤指定postgres wal sender進程,獲取網絡傳輸速率:
~~~
\# vi net.stp
global ifxmit, ifrecv
global ifmerged
// 定義3個全局變量, 分別用于存儲傳輸,接收,以及合并數組;
// 傳輸和接收數組中存儲統計信息;
// 合并數組存儲網絡接口上按照pid(), dev_name, execname(), uid()維度累加的傳輸和接收包個數.
probe netdev.transmit
{
ifxmit[pid(), dev_name, execname(), uid()] <<< length
}
// netdev.transmit 探針, 網絡設備傳輸buffer時觸發.
probe netdev.receive
{
ifrecv[pid(), dev_name, execname(), uid()] <<< length
}
// netdev.receive 探針, 從網絡設備接收數據時觸發.
function print_activity()
{
printf("%5s %5s %-7s %7s %7s %7s %7s %-15s\n",
"PID", "UID", "DEV", "XMIT_PK", "RECV_PK",
"XMIT_KB", "RECV_KB", "COMMAND")
foreach ([pid, dev, exec, uid] in ifrecv) {
ifmerged[pid, dev, exec, uid] += @count(ifrecv[pid,dev,exec,uid]);
}
foreach ([pid, dev, exec, uid] in ifxmit) {
ifmerged[pid, dev, exec, uid] += @count(ifxmit[pid,dev,exec,uid]);
}
// 按照倒序輸出
foreach ([pid, dev, exec, uid] in ifmerged-) {
n_xmit = @count(ifxmit[pid, dev, exec, uid])
n_recv = @count(ifrecv[pid, dev, exec, uid])
printf("%5d %5d %-7s %7d %7d %7d %7d %-15s\n",
pid, uid, dev, n_xmit, n_recv,
n_xmit ? @sum(ifxmit[pid, dev, exec, uid])/1024 : 0,
n_recv ? @sum(ifrecv[pid, dev, exec, uid])/1024 : 0,
exec)
}
// 輸出: pid, uid, 網絡接口, 傳輸包數, 接收包數, 傳輸KB, 接收KB, command.
print("\n")
delete ifxmit
delete ifrecv
delete ifmerged
}
// print_activity 函數, 按照pid,dev,exec,uid維度, 根據網絡接收和傳輸包數倒序輸出.
// n_xmit ? @sum(ifxmit[pid, dev, exec, uid])/1024 : 0,
// n_recv ? @sum(ifrecv[pid, dev, exec, uid])/1024 : 0,
// 表示傳輸和接收的KB數.
// print_activity 函數的末尾清除三個全局變量的值. 下次調用時重新輸出上一次輸出以來的統計信息.
probe timer.s(1), end, error
{
print_activity()
}
// 每1秒調用一次print_activity .
\# stap -vp 5 -DMAXSKIPPED=9999 -DSTP_NO_OVERLOAD -DMAXTRYLOCK=100 ./io.stp -x $pid
~~~
因為生產上沒有debuginfo的包,沒有辦法完成以上跟蹤。不過為了驗證不是網絡原因導致的問題,還有其他手段。`sar -n DEV 1 100000`也可以查看網絡傳輸。iotop則可以觀察進程的IO,很遺憾生產上也沒有iotop。
那么接下來,放開cgroup的限制,我們可以通過`sar -n DEV 1 100000`觀察一下網絡帶寬:
主庫和備庫的postgres進程都從cgroup移除:
~~~
\#cat /proc/50511/cgroup
3:memory:/rule3008
2:cpu:/rule3008
1:blkio:/rule3008
\#cgdelete memory:/rule3008
\#cgdelete cpu:/rule3008
\#cgdelete blkio:/rule3008
$cat /proc/119876/cgroup
3:memory:/rule3090
2:cpu:/rule3090
1:blkio:/rule3090
\#cgdelete memory:/rule3090
\#cgdelete cpu:/rule3090
\#cgdelete blkio:/rule3090
~~~
目前的網絡帶寬是1GB:
~~~
\#ethtool eth0|grep Speed
Speed: 1000Mb/s
~~~
再次測試,我們可以觀察到網絡傳輸達到了1GB/8,約120MB/s:
~~~
01:54:24 PM IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s
01:54:25 PM lo 132.29 132.29 29.42 29.42 0.00 0.00 0.00
01:54:25 PM eth0 85685.42 6495.83 125161.86 538.14 0.00 0.00 0.00
01:54:25 PM eth1 125.00 77.08 32.55 34.17 0.00 0.00 2.08
01:54:25 PM bond0 85808.33 6570.83 125192.78 572.14 0.00 0.00 2.08
01:54:25 PM IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s
01:54:26 PM lo 125.00 125.00 28.50 28.50 0.00 0.00 0.00
01:54:26 PM eth0 85412.50 6509.38 124869.50 519.73 0.00 0.00 0.00
01:54:26 PM eth1 129.17 97.92 11.04 57.40 0.00 0.00 0.00
01:54:26 PM bond0 85544.79 6611.46 124883.69 577.44 0.00 0.00 0.00
~~~
當然,完全開放IOPS也有風險。如果網絡帶寬低于主節點產生WAL的速度,可能導致備庫需要的WAL在主庫WAL被快速回收,這種情況下,備庫如果不能從任何地方獲取到需要的XLOG,則備庫會處于青黃不接的狀態。我們需要考慮調整相應的wal keep segments,或者備庫使用歸檔進行恢復,脫離青黃不接的狀態。
以下是完全放開IOPS限制后帶來的問題,由于寫WAL速度超過了網絡帶寬120MB/S,達到了300MB/S,所以備庫同樣會延遲:
~~~
postgres=# select round(0.001*pg_xlog_location_diff((lead(xlog_lsn,1) over(order by sec))::pg_lsn,xlog_lsn::pg_lsn)/(case lead(sec,1) over(order by sec)-sec when 0 then 1 else lead(sec,1) over(order by sec)-sec end), 2)as gen_xlog_KBpsec,
round(pg_xlog_location_diff(xlog_lsn::pg_lsn,sent_lsn)/1024.0, 2) AS sent_xlog_delay_KB,
round(pg_xlog_location_diff(xlog_lsn::pg_lsn,write_lsn)/1024.0, 2) AS write_xlog_delay_KB,
round(pg_xlog_location_diff(xlog_lsn::pg_lsn,flush_lsn)/1024.0, 2) AS flush_xlog_delay_KB,
round(pg_xlog_location_diff(xlog_lsn::pg_lsn,replay_lsn)/1024.0, 2) AS replay_xlog_delay_KB
from tbl_xlog_insert where id=(select id from tbl_xlog_insert order by sec desc limit 1) order by sec;
gen_xlog_kbpsec | sent_xlog_delay_kb | write_xlog_delay_kb | flush_xlog_delay_kb | replay_xlog_delay_kb
-----------------+--------------------+---------------------+---------------------+----------------------
306692.66 | 2763682.05 | 2769058.05 | 2769058.05 | 2773902.84
310323.46 | 2821964.55 | 2826060.55 | 2826060.55 | 2830312.84
286290.82 | 2878171.34 | 2882267.34 | 2882267.34 | 2888606.55
308019.02 | 2933665.58 | 2937761.58 | 2937761.58 | 2941141.12
347211.31 | 2992420.60 | 2996516.60 | 2996516.60 | 3000172.73
339915.61 | 3049958.89 | 3054054.89 | 3054054.89 | 3060592.84
345896.39 | 3110687.52 | 3115295.52 | 3115295.52 | 3123686.84
326032.85 | 3169349.81 | 3174213.81 | 3174341.81 | 3176994.25
309214.90 | 3223985.07 | 3231409.07 | 3231409.07 | 3234051.52
335529.65 | 3273305.11 | 3277529.11 | 3277529.11 | 3286191.45
329873.46 | 3330912.32 | 3335008.32 | 3335008.32 | 3343094.45
293908.19 | 3386875.67 | 3392251.67 | 3392251.67 | 3398439.91
329390.57 | 3439531.98 | 3443627.98 | 3443627.98 | 3448171.41
~~~
當備庫需要的XLOG在主庫被覆蓋后,備庫無法獲得對應的WAL,這種情況下,只能重新搭建備庫,或者從歸檔獲取需要的XLOG:
~~~
91812 2015-07-31 05:55:40 UTC 00000 LOG: started streaming WAL from primary at B/7A000000 on timeline 1
91812 2015-07-31 05:55:40 UTC XX000 FATAL: could not receive data from WAL stream: ERROR: requested WAL segment 000000010000000B0000007A has already been removed
91833 2015-07-31 05:55:45 UTC 00000 LOG: started streaming WAL from primary at B/7A000000 on timeline 1
91833 2015-07-31 05:55:45 UTC XX000 FATAL: could not receive data from WAL stream: ERROR: requested WAL segment 000000010000000B0000007A has already been removed
~~~
## 解決辦法探討
問題:
1. 限制XLOG盤的IOPS,在用戶長時間臨近IOPS限制的操作下,可能導致備庫延遲,同時可能帶來心跳超時的問題。
2. 如果不限制XLOG盤的IOPS,那么可能導致主節點產生WAL的速度過快,超出網卡的帶寬(目前來看,換萬兆網就可以解決這個問題),這樣的話主庫的XLOG可能會被覆蓋掉,備庫會無法獲取需要的XLOG。
解決辦法探討:
1. 不限制XLOG盤的IOPS,同時使用萬兆網卡。
2. 備庫配置restore command,當主庫的WAL被覆蓋后,使用歸檔恢復。
## 參考
[紅帽cgroup文檔](https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Resource_Management_Guide/index.html)
[systemtap文檔](https://sourceware.org/systemtap/)
- 數據庫內核月報目錄
- 數據庫內核月報 - 2016/09
- MySQL · 社區貢獻 · AliSQL那些事兒
- PetaData · 架構體系 · PetaData第二代低成本存儲體系
- MySQL · 社區動態 · MariaDB 10.2 前瞻
- MySQL · 特性分析 · 執行計劃緩存設計與實現
- PgSQL · 最佳實踐 · pg_rman源碼淺析與使用
- MySQL · 捉蟲狀態 · bug分析兩例
- PgSQL · 源碼分析 · PG優化器淺析
- MongoDB · 特性分析· Sharding原理與應用
- PgSQL · 源碼分析 · PG中的無鎖算法和原子操作應用一則
- SQLServer · 最佳實踐 · TEMPDB的設計
- 數據庫內核月報 - 2016/08
- MySQL · 特性分析 ·MySQL 5.7新特性系列四
- PgSQL · PostgreSQL 邏輯流復制技術的秘密
- MySQL · 特性分析 · MyRocks簡介
- GPDB · 特性分析· Greenplum 備份架構
- SQLServer · 最佳實踐 · RDS for SQLServer 2012權限限制提升與改善
- TokuDB · 引擎特性 · REPLACE 語句優化
- MySQL · 專家投稿 · InnoDB物理行中null值的存儲的推斷與驗證
- PgSQL · 實戰經驗 · 旋轉門壓縮算法在PostgreSQL中的實現
- MySQL · 源碼分析 · Query Cache并發處理
- PgSQL · 源碼分析· pg_dump分析
- 數據庫內核月報 - 2016/07
- MySQL · 特性分析 ·MySQL 5.7新特性系列三
- MySQL · 特性分析 · 5.7 代價模型淺析
- PgSQL · 實戰經驗 · 分組TOP性能提升44倍
- MySQL · 源碼分析 · 網絡通信模塊淺析
- MongoDB · 特性分析 · 索引原理
- SQLServer · 特性分析 · XML與JSON應用比較
- MySQL · 最佳實戰 · 審計日志實用案例分析
- MySQL · 性能優化 · 條件下推到物化表
- MySQL · 源碼分析 · Query Cache內部剖析
- MySQL · 捉蟲動態 · 備庫1206錯誤問題說明
- 數據庫內核月報 - 2016/06
- MySQL · 特性分析 · innodb 鎖分裂繼承與遷移
- MySQL · 特性分析 ·MySQL 5.7新特性系列二
- PgSQL · 實戰經驗 · 如何預測Freeze IO風暴
- GPDB · 特性分析· Filespace和Tablespace
- MariaDB · 新特性 · 窗口函數
- MySQL · TokuDB · checkpoint過程
- MySQL · 特性分析 · 內部臨時表
- MySQL · 最佳實踐 · 空間優化
- SQLServer · 最佳實踐 · 數據庫實現大容量插入的幾種方式
- 數據庫內核月報 - 2016/05
- MySQL · 引擎特性 · 基于InnoDB的物理復制實現
- MySQL · 特性分析 · MySQL 5.7新特性系列一
- PostgreSQL · 特性分析 · 邏輯結構和權限體系
- MySQL · 特性分析 · innodb buffer pool相關特性
- PG&GP · 特性分析 · 外部數據導入接口實現分析
- SQLServer · 最佳實踐 · 透明數據加密在SQLServer的應用
- MySQL · TokuDB · 日志子系統和崩潰恢復過程
- MongoDB · 特性分析 · Sharded cluster架構原理
- PostgreSQL · 特性分析 · 統計信息計算方法
- MySQL · 捉蟲動態 · left-join多表導致crash
- 數據庫內核月報 - 2016/04
- MySQL · 參數故事 · innodb_additional_mem_pool_size
- GPDB · 特性分析 · Segment事務一致性與異常處理
- GPDB · 特性分析 · Segment 修復指南
- MySQL · 捉蟲動態 · 并行復制外鍵約束問題二
- PgSQL · 性能優化 · 如何瀟灑的處理每天上百TB的數據增量
- Memcached · 最佳實踐 · 熱點 Key 問題解決方案
- MongoDB · 最佳實踐 · 短連接Auth性能優化
- MySQL · 最佳實踐 · RDS 只讀實例延遲分析
- MySQL · TokuDB · TokuDB索引結構--Fractal Tree
- MySQL · TokuDB · Savepoint漫談
- 數據庫內核月報 - 2016/03
- MySQL · TokuDB · 事務子系統和 MVCC 實現
- MongoDB · 特性分析 · MMAPv1 存儲引擎原理
- PgSQL · 源碼分析 · 優化器邏輯推理
- SQLServer · BUG分析 · Agent 鏈接泄露分析
- Redis · 特性分析 · AOF Rewrite 分析
- MySQL · BUG分析 · Rename table 死鎖分析
- MySQL · 物理備份 · Percona XtraBackup 備份原理
- GPDB · 特性分析· GreenPlum FTS 機制
- MySQL · 答疑解惑 · 備庫Seconds_Behind_Master計算
- MySQL · 答疑解惑 · MySQL 鎖問題最佳實踐
- 數據庫內核月報 - 2016/02
- MySQL · 引擎特性 · InnoDB 文件系統之文件物理結構
- MySQL · 引擎特性 · InnoDB 文件系統之IO系統和內存管理
- MySQL · 特性分析 · InnoDB transaction history
- PgSQL · 會議見聞 · PgConf.Russia 2016 大會總結
- PgSQL · 答疑解惑 · PostgreSQL 9.6 并行查詢實現分析
- MySQL · TokuDB · TokuDB之黑科技工具
- PgSQL · 性能優化 · PostgreSQL TPC-C極限優化玩法
- MariaDB · 版本特性 · MariaDB 的 GTID 介紹
- MySQL · 特性分析 · 線程池
- MySQL · 答疑解惑 · mysqldump tips 兩則
- 數據庫內核月報 - 2016/01
- MySQL · 引擎特性 · InnoDB 事務鎖系統簡介
- GPDB · 特性分析· GreenPlum Primary/Mirror 同步機制
- MySQL · 專家投稿 · MySQL5.7 的 JSON 實現
- MySQL · 特性分析 · 優化器 MRR & BKA
- MySQL · 答疑解惑 · 物理備份死鎖分析
- MySQL · TokuDB · Cachetable 的工作線程和線程池
- MySQL · 特性分析 · drop table的優化
- MySQL · 答疑解惑 · GTID不一致分析
- PgSQL · 特性分析 · Plan Hint
- MariaDB · 社區動態 · MariaDB on Power8 (下)
- 數據庫內核月報 - 2015/12
- MySQL · 引擎特性 · InnoDB 事務子系統介紹
- PgSQL · 特性介紹 · 全文搜索介紹
- MongoDB · 捉蟲動態 · Kill Hang問題排查記錄
- MySQL · 參數優化 ·RDS MySQL參數調優最佳實踐
- PgSQL · 特性分析 · 備庫激活過程分析
- MySQL · TokuDB · 讓Hot Backup更完美
- PgSQL · 答疑解惑 · 表膨脹
- MySQL · 特性分析 · Index Condition Pushdown (ICP)
- MariaDB · 社區動態 · MariaDB on Power8
- MySQL · 特性分析 · 企業版特性一覽
- 數據庫內核月報 - 2015/11
- MySQL · 社區見聞 · OOW 2015 總結 MySQL 篇
- MySQL · 特性分析 · Statement Digest
- PgSQL · 答疑解惑 · PostgreSQL 用戶組權限管理
- MySQL · 特性分析 · MDL 實現分析
- PgSQL · 特性分析 · full page write 機制
- MySQL · 捉蟲動態 · MySQL 外鍵異常分析
- MySQL · 答疑解惑 · MySQL 優化器 range 的代價計算
- MySQL · 捉蟲動態 · ORDER/GROUP BY 導致 mysqld crash
- MySQL · TokuDB · TokuDB 中的行鎖
- MySQL · 捉蟲動態 · order by limit 造成優化器選擇索引錯誤
- 數據庫內核月報 - 2015/10
- MySQL · 引擎特性 · InnoDB 全文索引簡介
- MySQL · 特性分析 · 跟蹤Metadata lock
- MySQL · 答疑解惑 · 索引過濾性太差引起CPU飆高分析
- PgSQL · 特性分析 · PG主備流復制機制
- MySQL · 捉蟲動態 · start slave crash 診斷分析
- MySQL · 捉蟲動態 · 刪除索引導致表無法打開
- PgSQL · 特性分析 · PostgreSQL Aurora方案與DEMO
- TokuDB · 捉蟲動態 · CREATE DATABASE 導致crash問題
- PgSQL · 特性分析 · pg_receivexlog工具解析
- MySQL · 特性分析 · MySQL權限存儲與管理
- 數據庫內核月報 - 2015/09
- MySQL · 引擎特性 · InnoDB Adaptive hash index介紹
- PgSQL · 特性分析 · clog異步提交一致性、原子操作與fsync
- MySQL · 捉蟲動態 · BUG 幾例
- PgSQL · 答疑解惑 · 詭異的函數返回值
- MySQL · 捉蟲動態 · 建表過程中crash造成重建表失敗
- PgSQL · 特性分析 · 談談checkpoint的調度
- MySQL · 特性分析 · 5.6 并行復制恢復實現
- MySQL · 備庫優化 · relay fetch 備庫優化
- MySQL · 特性分析 · 5.6并行復制事件分發機制
- MySQL · TokuDB · 文件目錄談
- 數據庫內核月報 - 2015/08
- MySQL · 社區動態 · InnoDB Page Compression
- PgSQL · 答疑解惑 · RDS中的PostgreSQL備庫延遲原因分析
- MySQL · 社區動態 · MySQL5.6.26 Release Note解讀
- PgSQL · 捉蟲動態 · 執行大SQL語句提示無效的內存申請大小
- MySQL · 社區動態 · MariaDB InnoDB表空間碎片整理
- PgSQL · 答疑解惑 · 歸檔進程cp命令的core文件追查
- MySQL · 答疑解惑 · open file limits
- MySQL · TokuDB · 瘋狂的 filenum++
- MySQL · 功能分析 · 5.6 并行復制實現分析
- MySQL · 功能分析 · MySQL表定義緩存
- 數據庫內核月報 - 2015/07
- MySQL · 引擎特性 · Innodb change buffer介紹
- MySQL · TokuDB · TokuDB Checkpoint機制
- PgSQL · 特性分析 · 時間線解析
- PgSQL · 功能分析 · PostGIS 在 O2O應用中的優勢
- MySQL · 引擎特性 · InnoDB index lock前世今生
- MySQL · 社區動態 · MySQL內存分配支持NUMA
- MySQL · 答疑解惑 · 外鍵刪除bug分析
- MySQL · 引擎特性 · MySQL logical read-ahead
- MySQL · 功能介紹 · binlog拉取速度的控制
- MySQL · 答疑解惑 · 浮點型的顯示問題
- 數據庫內核月報 - 2015/06
- MySQL · 引擎特性 · InnoDB 崩潰恢復過程
- MySQL · 捉蟲動態 · 唯一鍵約束失效
- MySQL · 捉蟲動態 · ALTER IGNORE TABLE導致主備不一致
- MySQL · 答疑解惑 · MySQL Sort 分頁
- MySQL · 答疑解惑 · binlog event 中的 error code
- PgSQL · 功能分析 · Listen/Notify 功能
- MySQL · 捉蟲動態 · 任性的 normal shutdown
- PgSQL · 追根究底 · WAL日志空間的意外增長
- MySQL · 社區動態 · MariaDB Role 體系
- MySQL · TokuDB · TokuDB數據文件大小計算
- 數據庫內核月報 - 2015/05
- MySQL · 引擎特性 · InnoDB redo log漫游
- MySQL · 專家投稿 · MySQL數據庫SYS CPU高的可能性分析
- MySQL · 捉蟲動態 · 5.6 與 5.5 InnoDB 不兼容導致 crash
- MySQL · 答疑解惑 · InnoDB 預讀 VS Oracle 多塊讀
- PgSQL · 社區動態 · 9.5 新功能BRIN索引
- MySQL · 捉蟲動態 · MySQL DDL BUG
- MySQL · 答疑解惑 · set names 都做了什么
- MySQL · 捉蟲動態 · 臨時表操作導致主備不一致
- TokuDB · 引擎特性 · zstd壓縮算法
- MySQL · 答疑解惑 · binlog 位點刷新策略
- 數據庫內核月報 - 2015/04
- MySQL · 引擎特性 · InnoDB undo log 漫游
- TokuDB · 產品新聞 · RDS TokuDB小手冊
- PgSQL · 社區動態 · 說一說PgSQL 9.4.1中的那些安全補丁
- MySQL · 捉蟲動態 · 連接斷開導致XA事務丟失
- MySQL · 捉蟲動態 · GTID下slave_net_timeout值太小問題
- MySQL · 捉蟲動態 · Relay log 中 GTID group 完整性檢測
- MySQL · 答疑釋惑 · UPDATE交換列單表和多表的區別
- MySQL · 捉蟲動態 · 刪被引用索引導致crash
- MySQL · 答疑釋惑 · GTID下auto_position=0時數據不一致
- 數據庫內核月報 - 2015/03
- MySQL · 答疑釋惑· 并發Replace into導致的死鎖分析
- MySQL · 性能優化· 5.7.6 InnoDB page flush 優化
- MySQL · 捉蟲動態· pid file丟失問題分析
- MySQL · 答疑釋惑· using filesort VS using temporary
- MySQL · 優化限制· MySQL index_condition_pushdown
- MySQL · 捉蟲動態·DROP DATABASE外鍵約束的GTID BUG
- MySQL · 答疑釋惑· lower_case_table_names 使用問題
- PgSQL · 特性分析· Logical Decoding探索
- PgSQL · 特性分析· jsonb類型解析
- TokuDB ·引擎機制· TokuDB線程池
- 數據庫內核月報 - 2015/02
- MySQL · 性能優化· InnoDB buffer pool flush策略漫談
- MySQL · 社區動態· 5.6.23 InnoDB相關Bugfix
- PgSQL · 特性分析· Replication Slot
- PgSQL · 特性分析· pg_prewarm
- MySQL · 答疑釋惑· InnoDB丟失自增值
- MySQL · 答疑釋惑· 5.5 和 5.6 時間類型兼容問題
- MySQL · 捉蟲動態· 變量修改導致binlog錯誤
- MariaDB · 特性分析· 表/表空間加密
- MariaDB · 特性分析· Per-query variables
- TokuDB · 特性分析· 日志詳解
- 數據庫內核月報 - 2015/01
- MySQL · 性能優化· Group Commit優化
- MySQL · 新增特性· DDL fast fail
- MySQL · 性能優化· 啟用GTID場景的性能問題及優化
- MySQL · 捉蟲動態· InnoDB自增列重復值問題
- MySQL · 優化改進· 復制性能改進過程
- MySQL · 談古論今· key分區算法演變分析
- MySQL · 捉蟲動態· mysql client crash一例
- MySQL · 捉蟲動態· 設置 gtid_purged 破壞AUTO_POSITION復制協議
- MySQL · 捉蟲動態· replicate filter 和 GTID 一起使用的問題
- TokuDB·特性分析· Optimize Table
- 數據庫內核月報 - 2014/12
- MySQL· 性能優化·5.7 Innodb事務系統
- MySQL· 踩過的坑·5.6 GTID 和存儲引擎那會事
- MySQL· 性能優化·thread pool 原理分析
- MySQL· 性能優化·并行復制外建約束問題
- MySQL· 答疑釋惑·binlog event有序性
- MySQL· 答疑釋惑·server_id為0的Rotate
- MySQL· 性能優化·Bulk Load for CREATE INDEX
- MySQL· 捉蟲動態·Opened tables block read only
- MySQL· 優化改進· GTID啟動優化
- TokuDB· Binary Log Group Commit with TokuDB
- 數據庫內核月報 - 2014/11
- MySQL· 捉蟲動態·OPTIMIZE 不存在的表
- MySQL· 捉蟲動態·SIGHUP 導致 binlog 寫錯
- MySQL· 5.7改進·Recovery改進
- MySQL· 5.7特性·高可用支持
- MySQL· 5.7優化·Metadata Lock子系統的優化
- MySQL· 5.7特性·在線Truncate undo log 表空間
- MySQL· 性能優化·hash_scan 算法的實現解析
- TokuDB· 版本優化· 7.5.0
- TokuDB· 引擎特性· FAST UPDATES
- MariaDB· 性能優化·filesort with small LIMIT optimization
- 數據庫內核月報 - 2014/10
- MySQL· 5.7重構·Optimizer Cost Model
- MySQL· 系統限制·text字段數
- MySQL· 捉蟲動態·binlog重放失敗
- MySQL· 捉蟲動態·從庫OOM
- MySQL· 捉蟲動態·崩潰恢復失敗
- MySQL· 功能改進·InnoDB Warmup特性
- MySQL· 文件結構·告別frm文件
- MariaDB· 新鮮特性·ANALYZE statement 語法
- TokuDB· 主備復制·Read Free Replication
- TokuDB· 引擎特性·壓縮
- 數據庫內核月報 - 2014/09
- MySQL· 捉蟲動態·GTID 和 DELAYED
- MySQL· 限制改進·GTID和升級
- MySQL· 捉蟲動態·GTID 和 binlog_checksum
- MySQL· 引擎差異·create_time in status
- MySQL· 參數故事·thread_concurrency
- MySQL· 捉蟲動態·auto_increment
- MariaDB· 性能優化·Extended Keys
- MariaDB·主備復制·CREATE OR REPLACE
- TokuDB· 參數故事·數據安全和性能
- TokuDB· HA方案·TokuDB熱備
- 數據庫內核月報 - 2014/08
- MySQL· 參數故事·timed_mutexes
- MySQL· 參數故事·innodb_flush_log_at_trx_commit
- MySQL· 捉蟲動態·Count(Distinct) ERROR
- MySQL· 捉蟲動態·mysqldump BUFFER OVERFLOW
- MySQL· 捉蟲動態·long semaphore waits
- MariaDB·分支特性·支持大于16K的InnoDB Page Size
- MariaDB·分支特性·FusionIO特性支持
- TokuDB· 性能優化·Bulk Fetch
- TokuDB· 數據結構·Fractal-Trees與LSM-Trees對比
- TokuDB·社區八卦·TokuDB團隊