## 問題背景
GPDB是中央控制節點式的架構,在一個 GreenPlum 集群中,有一個 Master 節點和多個 Segment 節點。Master 是中央控制節點,Segment 是數據存放節點。所有的Segment節點平等,均由Master管理。架構如下圖:

GreenPlum架構圖
當GP Master出現問題的時候,可以通過外部的HA監控模塊發現并激活備庫,Standby Master 正常后刪除原來的 Master 進行重建備庫。
而 Segment 的修復與此不同!由上圖可知,Segment 也分為主備,稱為 Primary 和 Mirror,Mirror 是 Primary 的備。Primary與Mirror之間強同步保證數據一致性和可靠性,其間的監控與切換則由Master的FTS模塊負責。當FTS發現Primary宕機、Mirror健康后會激活Mirror,并標記Primary為’d’,Mirror進入 ChangeTracking 狀態。(詳細的原理此處不作贅述,有興趣可以參考本期月報的[GPDB · 特性分析· GreenPlum Segment事務一致性與異常處理](http://mysql.taobao.org/monthly/2016/04/02/)和上期的[GPDB · 特性分析· GreenPlum FTS 機制](http://mysql.taobao.org/monthly/2016/03/08/))
當有Segment被標記為’d’后,Master將不會對其做處理,GP實例的啟動(重啟)也會將其忽略。這個時候,整個GP集群是處于有風險的狀況中:
1. 切過去的Mirror壓力增大(需要做change tracking);
2. 節點單點,可靠性風險加大。
這個時候需要及時地對Segment進行修復。
## GP的Segment修復
GP提供了一系列的控制腳本用于對GP進行操作,其中用于修復Segment的是gprecoverseg。使用方式比較簡單,有限的幾個主要參數如下:
* -i
主要參數,用于指定一個配置文件,該配置文件描述了需要修復的Segment和修復后的目的位置。
* -F
可選項,指定后,gprecoverseg會將”-i”中指定的或標記”d”的實例刪除,并從活著的Mirror復制一個完整一份到目標位置。
* -r
當FTS發現有Primary宕機并進行主備切換,在gprecoverseg修復后,擔當Primary的Mirror角色并不會立即切換回來,就會導致部分主機上活躍的Segment過多從而引起性能瓶頸。因此需要恢復Segment原先的角色,稱為re-balance。
舉個使用的例子:
下面是一個正常的實例,
~~~
$ gpstate -s
/opt/python27/lib/python2.7/site-packages/Crypto/Util/number.py:57: PowmInsecureWarning: Not using mpz_powm_sec. You should rebuild using libgmp >= 5 to avoid timing attack vulnerability.
_warn("Not using mpz_powm_sec. You should rebuild using libgmp >= 5 to avoid timing attack vulnerability.", PowmInsecureWarning)
20160418:21:39:29:016547 gpstate:host1:gpuser-[INFO]:-Starting gpstate with args: -s
20160418:21:39:29:016547 gpstate:host1:gpuser-[INFO]:-local Greenplum Version: 'postgres (Greenplum Database) 4.3.99.00 build dev'
20160418:21:39:29:016547 gpstate:host1:gpuser-[INFO]:-master Greenplum Version: 'PostgreSQL 8.3 (Greenplum Database 4.3.99.00 build dev) compiled on Apr 11 2016 22:02:39'
20160418:21:39:29:016547 gpstate:host1:gpuser-[INFO]:-Obtaining Segment details from master...
20160418:21:39:29:016547 gpstate:host1:gpuser-[INFO]:-Gathering data from segments...
.
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:-----------------------------------------------------
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:--Master Configuration & Status
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:-----------------------------------------------------
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Master host = host1
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Master postgres process ID = 72447
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Master data directory = /workspace/gpuser/3007
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Master port = 3007
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Master current role = dispatch
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Greenplum initsystem version = 4.3.99.00 build dev
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Greenplum current version = PostgreSQL 8.3 (Greenplum Database 4.3.99.00 build dev) compiled on Apr 11 2016 22:02:39
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Postgres version = 8.3
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Master standby = host2
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Standby master state = Standby host passive
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:-----------------------------------------------------
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:-Segment Instance Status Report
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:-----------------------------------------------------
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Segment Info
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Hostname = host1
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Address = host1
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Datadir = /workspace/gpuser/3008
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Port = 3008
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Mirroring Info
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Current role = Primary
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Preferred role = Primary
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Mirror status = Synchronized
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Status
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- PID = 72388
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Configuration reports status as = Up
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Database status = Up
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:-----------------------------------------------------
......
[INFO]:-----------------------------------------------------
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Segment Info
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Hostname = host1
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Address = host1
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Datadir = /workspace/gpuser/3012
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Port = 3012
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Mirroring Info
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Current role = Mirror
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Preferred role = Mirror
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Mirror status = Synchronized
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Status
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- PID = 75247
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Configuration reports status as = Up
20160418:21:39:30:016547 gpstate:host1:gpuser-[INFO]:- Segment status = Up
~~~
選擇一個kill之后(如3012這個端口的實例),執行gprecoverseg,如下:
~~~
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host1 -p 3008
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host1 -p 3008
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host2 -p 3014
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host2 -p 3014
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host1 -p 3010
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host1 -p 3010
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host2 -p 3015
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host2 -p 3015
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host2 -p 3008
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host2 -p 3008
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host1 -p 3011
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host1 -p 3011
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host2 -p 3013
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host2 -p 3013
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host1 -p 3012
20160418:21:40:58:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host1 -p 3012
......
20160418:21:41:18:017989 gpstate:host1:gpuser-[DEBUG]:-[worker6] finished cmd: Get segment status cmdStr='sshpass -e ssh -o 'StrictHostKeyChecking no' host1 ". /workspace/gpdb/greenplum_path.sh; $GPHOME/bin/gp_primarymirror -h host1 -p 3012"' had result: cmd had rc=15 completed=True halted=False
stdout=''
stderr='failed to connect: Connection refused (errno: 111)
Retrying no 1
failed to connect: Connection refused (errno: 111)
Retrying no 2
......
20160418:21:41:18:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Encountered error Not ready to connect to database mode: PrimarySegment
segmentState: Fault
dataState: InSync
faultType: FaultMirror
mode: PrimarySegment
segmentState: Fault
dataState: InSync
faultType: FaultMirror
~~~
這個時候連接這個實例去獲取信息是失敗的,失敗的原因后面再說。這個時候失敗后會重試5次,當再一次嘗試的時候發現了不同:
~~~
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host1 -p 3008
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host1 -p 3008
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host2 -p 3014
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host2 -p 3014
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host1 -p 3010
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host1 -p 3010
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host2 -p 3015
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host2 -p 3015
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host2 -p 3008
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host2 -p 3008
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host1 -p 3011
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host1 -p 3011
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Sending msg getStatus and cmdStr $GPHOME/bin/gp_primarymirror -h host2 -p 3013
20160418:21:41:23:017989 gprecoverseg:host1:gpuser-[DEBUG]:-Adding cmd to work_queue: $GPHOME/bin/gp_primarymirror -h host2 -p 3013
~~~
會發現,少了一個Segment的命令,而這個Segment正是剛才kill的Segment。繼續往下看執行結果,gprecoverseg執行了下面的內容:
~~~
20160418:23:16:20:085203 gprecoverseg:host1:gpuser-[DEBUG]:-[worker7] finished cmd: Get segment status information cmdStr='sshpass -e ssh -o 'StrictHostKeyChecking no' host2 ". /workspace/gpdb/greenplum_path.sh; $GPHOME/bin/gp_primarymirror -h host2 -p 3013"' had result: cmd had rc=1 completed=True halted=False
stdout=''
stderr='mode: PrimarySegment
segmentState: Ready
dataState: InChangeTracking
faultType: NotInitialized
mode: PrimarySegment
segmentState: Ready
dataState: InChangeTracking
faultType: NotInitialized
'
~~~
這個實例為什么單獨檢查呢?而且這個時候如果失敗,則會直接退出無法繼續執行。
在一系列的檢查之后,先更新catalog中的操作記錄表:
~~~
UPDATE pg_catalog.gp_segment_configuration
~~~
之后即調用命令進行數據的恢復:
~~~
/workspace/gpdb/bin/lib/gpconfigurenewsegment -c /workspace/gpuser/3012:3012:false:false:9 -v -B 16 --write-gpid-file-only
~~~
最后再啟動Segment,并更新catalog:
~~~
$GPHOME/sbin/gpsegstart.py -C en_US.utf8:C:C -M quiescent -V 'postgres (Greenplum Database) 4.3.99.00 build dev' -n 4 --era df86ca11ca2fc214_160418165251 -t 600 -v -p KGRwMApTJ2Ric0J5UG9ydCcKcDEKKGRwMgpJMzAxMgooZHAzClMndGFyZ2V0TW9kZScKcDQKUydtaXJyb3InCnA1CnNTJ2RiaWQnCnA2Ckk5CnNTJ2hvc3ROYW1lJwpwNwpTJzEwLjk3LjI0OC43MycKcDgKc1MncGVlclBvcnQnCnA5CkkzNTEzCnNTJ3BlZXJQTVBvcnQnCnAxMApJMzAxMwpzUydwZWVyTmFtZScKcDExClMncnQxYjA3MDI0LnRiYycKcDEyCnNTJ2Z1bGxSZXN5bmNGbGFnJwpwMTMKSTAwCnNTJ21vZGUnCnAxNApTJ3InCnAxNQpzUydob3N0UG9ydCcKcDE2CkkzNTEyCnNzcy4= -D '9|3|m|m|r|d|host1|host1|3012|3512|/workspace/gpuser/3012||'
......
20160419:01:21:05:042692 gprecoverseg:host1:gpuser-[DEBUG]:-UPDATE pg_catalog.gp_segment_configuration
SET
mode = 'r',
status = 'u'
WHERE dbid = 5
20160419:01:21:05:042692 gprecoverseg:host1:gpuser-[DEBUG]:-INSERT INTO gp_configuration_history (time, dbid, "desc") VALUES(
now(),
5,
'gprecoverseg: segment resync marking mirrors up and primaries resync: segment mode and status'
)
20160419:01:21:05:042692 gprecoverseg:host1:gpuser-[DEBUG]:-UPDATE pg_catalog.gp_segment_configuration
SET
mode = 'r',
status = 'u'
WHERE dbid = 9
20160419:01:21:05:042692 gprecoverseg:host1:gpuser-[DEBUG]:-INSERT INTO gp_configuration_history (time, dbid, "desc") VALUES(
now(),
9,
'gprecoverseg: segment resync marking mirrors up and primaries resync: segment mode and status'
)
20160419:01:21:05:042692 gprecoverseg:host1:gpuser-[DEBUG]:-UPDATE gp_fault_strategy
~~~
這樣即是一個完整的gprecoverseg過程。執行過后,對應的Primary和Mirror會進入”r”狀態,表示正在做數據同步。
下面來看其中的詳細步驟和原理。
## 實現原理
上面的例子中,遺留了幾個問題:
* 在gprecoverseg過程中,第一次獲取Segment狀態是不對的;
* 第二次獲取Segment信息,比第一次少了一條;
* 單獨檢查了“-h host2 -p 3013”這個實例。
這幾個問題在了解了原理后就很容易理解了。想要了解原理,可以先看下執行的步驟。從代碼看來,其大致的步驟如下:
### 參數處理
GP的腳本用了較多的環境變量,且不同的腳本、不同的地方略有不同。如gprecoverseg用的就是MASTER_DATA_DIRECTORY,從MASTER_DATA_DIRECTORY指定的目錄中得到Master相關的信息(如port)以進行相關操作。
gprecoverseg的參數,最重要的莫過于”-i”了,其指定了需要做修復的Segment,并且可以指定到不同的主機上,例如:
~~~
filespaceOrder=
host1:3012:/workspace/gpuser/3012 host2:3012:3512:/workspace/gpuser/3012
~~~
具體執行不再贅述。
### 判斷Segment當前的狀態
調用gp_primarymirror,向活著的segment發送消息,以判斷Segment當前的狀態。這是非常重要的一步,也是遇到問題最多的一步,經常會出現問題”Unable to connect to database”。事實上,造成這個失敗的原因有很多,比較多的是:
* 其對應的Primary(Mirror)也宕機;
* 其對應的Primary的狀態不對,如已經有gprecoverseg在進行(或執行失敗,狀態出問題等)。
在做這一步的時候,是依賴gp_segment_configuration中的數據的,即會首先從GP Master上獲取相應的數據,與下一步中的描述基本相同。
如果這個Segment被標記為”d”,那么是不會向該Segment發起狀態信息請求。
而如果對應的Primary/Mirror都宕機了,他們的狀態不會同時為”d”(有可能都為”u”,比如同時異常的時候,FTS不會更新他們)。因此對標記為”u”實際已經宕機的Segment連接獲取狀態信息的時候,則會報錯。這個時候就不是gprecoverseg所能處理的問題了,只能重啟整個實例。
回到前面的問題。第一次執行失敗即因為Segment的狀態尚未更新;第二次執行少了一個Segment,即狀態被更新為”d”后不進行連接。
在檢查完所有狀態為”u”的Segment連接后,則會針對宕機的Mirror進行檢查,查看其對應的主庫是否正常,可以用于修復數據,即是第三個問題的答案。如:
~~~
stdout=''
stderr='mode: PrimarySegment
segmentState: Ready
dataState: InSync
faultType: NotInitialized
mode: PrimarySegment
segmentState: Ready
dataState: InSync
faultType: NotInitialized
'
~~~
或者這樣
~~~
stdout=''
stderr='mode: PrimarySegment
segmentState: Ready
dataState: InChangeTracking
faultType: NotInitialized
mode: PrimarySegment
segmentState: Ready
dataState: InChangeTracking
faultType: NotInitialized
'
~~~
正常情況下,當Mirror出現問題,Primary發現后會進入ChangeTracking的狀態。在這個狀態里,Primary會記錄下切換狀態時間點之后的變更,用于當Mirror恢復時進行數據同步,而不用每次都做一次全量。
### 從master獲取segment的信息
包括IP、PORT、ROLE、Status、數據目錄、臨時空間等,如下:
~~~
dbid | content | role | preferred\_role | mode | status | hostname | address | port | replication\_port | oid | fselocation
------+---------+------+----------------+------+--------+---------------+---------------+------+------------------+------+-----------------
1 | -1 | p | p | s | u | host1 | host1 | 3007 | | 3052 | /workspace/gpuser/3007
10 | -1 | m | m | s | u | host2 | host2 | 3007 | | 3052 | /workspace/gpuser/3007
2 | 0 | p | p | s | u | host1 | host1 | 3008 | 3508 | 3052 | /workspace/gpuser/3008
6 | 0 | m | m | s | u | host2 | host2 | 3014 | 3514 | 3052 | /workspace/gpuser/3014
3 | 1 | p | p | s | u | host1 | host1 | 3010 | 3510 | 3052 | /workspace/gpuser/3010
7 | 1 | m | m | s | u | host2 | host2 | 3015 | 3515 | 3052 | /workspace/gpuser/3015
4 | 2 | p | p | s | u | host2 | host2 | 3008 | 3508 | 3052 | /workspace/gpuser/3008
8 | 2 | m | m | s | u | host1 | host1 | 3011 | 3511 | 3052 | /workspace/gpuser/3011
5 | 3 | p | p | s | u | host2 | host2 | 3013 | 3513 | 3052 | /workspace/gpuser/3013
9 | 3 | m | m | s | u | host1 | host1 | 3012 | 3512 | 3052 | /workspace/gpuser/3012
~~~
IP/PORT/ROLE/STATUS/目錄/FILESPACE等信息,后面的Mirror修復列表、臨時空間、操作對象的信息都依賴于此。
### 修復準備
在獲取所有的Segment信息后,會針對配置文件、參數等相關信息確定,包括:
* Segment修復對象
確定Segment修復對象和數據源,即Primary;需要修復的Segment有可能是多個。并獲取需要修復的Segment的相關信息,包括端口、流復制端口、數據目錄、臨時空間、文件空間等信息,以及是否強制修復等。
* 主機環境
在獲取所需要修復的Segment列表后,需要確保所在主機環境是可以的,包括端口占用、目錄的占用等有可能沖突的地方。
如果沒有指定主機,則會在已有的主機中選擇一個。
### 修復
修復的步驟是:
* 關閉宕機的Mirror,并清理shared memory
* 確定需要修復的Segment已經被標記為”d”
* 如有需要,則進行刪除,如”-F”的情況
* 打包壓縮、復制數據到目標位置
* 關閉SIGINT、SIG_IGN,更新元數據庫,打開SIGINT、SIG_IGN
以上步驟后,即可實現對Segment的本地(in-place)或跨機修復。
### re-balance
當修復完Segment之后,原先因為Primary宕機而切到Mirror上的Segment并不會主動切回來,這個時候有可能出現性能傾斜而影響性能,因此需要做”re-balance”,執行:
~~~
gprecoverseg -r
~~~
執行該命令會將role切換為preferred_role,保證整個集群的角色平衡而不致于部分主機Primay更多引起性能瓶頸。
- 數據庫內核月報目錄
- 數據庫內核月報 - 2016/09
- MySQL · 社區貢獻 · AliSQL那些事兒
- PetaData · 架構體系 · PetaData第二代低成本存儲體系
- MySQL · 社區動態 · MariaDB 10.2 前瞻
- MySQL · 特性分析 · 執行計劃緩存設計與實現
- PgSQL · 最佳實踐 · pg_rman源碼淺析與使用
- MySQL · 捉蟲狀態 · bug分析兩例
- PgSQL · 源碼分析 · PG優化器淺析
- MongoDB · 特性分析· Sharding原理與應用
- PgSQL · 源碼分析 · PG中的無鎖算法和原子操作應用一則
- SQLServer · 最佳實踐 · TEMPDB的設計
- 數據庫內核月報 - 2016/08
- MySQL · 特性分析 ·MySQL 5.7新特性系列四
- PgSQL · PostgreSQL 邏輯流復制技術的秘密
- MySQL · 特性分析 · MyRocks簡介
- GPDB · 特性分析· Greenplum 備份架構
- SQLServer · 最佳實踐 · RDS for SQLServer 2012權限限制提升與改善
- TokuDB · 引擎特性 · REPLACE 語句優化
- MySQL · 專家投稿 · InnoDB物理行中null值的存儲的推斷與驗證
- PgSQL · 實戰經驗 · 旋轉門壓縮算法在PostgreSQL中的實現
- MySQL · 源碼分析 · Query Cache并發處理
- PgSQL · 源碼分析· pg_dump分析
- 數據庫內核月報 - 2016/07
- MySQL · 特性分析 ·MySQL 5.7新特性系列三
- MySQL · 特性分析 · 5.7 代價模型淺析
- PgSQL · 實戰經驗 · 分組TOP性能提升44倍
- MySQL · 源碼分析 · 網絡通信模塊淺析
- MongoDB · 特性分析 · 索引原理
- SQLServer · 特性分析 · XML與JSON應用比較
- MySQL · 最佳實戰 · 審計日志實用案例分析
- MySQL · 性能優化 · 條件下推到物化表
- MySQL · 源碼分析 · Query Cache內部剖析
- MySQL · 捉蟲動態 · 備庫1206錯誤問題說明
- 數據庫內核月報 - 2016/06
- MySQL · 特性分析 · innodb 鎖分裂繼承與遷移
- MySQL · 特性分析 ·MySQL 5.7新特性系列二
- PgSQL · 實戰經驗 · 如何預測Freeze IO風暴
- GPDB · 特性分析· Filespace和Tablespace
- MariaDB · 新特性 · 窗口函數
- MySQL · TokuDB · checkpoint過程
- MySQL · 特性分析 · 內部臨時表
- MySQL · 最佳實踐 · 空間優化
- SQLServer · 最佳實踐 · 數據庫實現大容量插入的幾種方式
- 數據庫內核月報 - 2016/05
- MySQL · 引擎特性 · 基于InnoDB的物理復制實現
- MySQL · 特性分析 · MySQL 5.7新特性系列一
- PostgreSQL · 特性分析 · 邏輯結構和權限體系
- MySQL · 特性分析 · innodb buffer pool相關特性
- PG&GP · 特性分析 · 外部數據導入接口實現分析
- SQLServer · 最佳實踐 · 透明數據加密在SQLServer的應用
- MySQL · TokuDB · 日志子系統和崩潰恢復過程
- MongoDB · 特性分析 · Sharded cluster架構原理
- PostgreSQL · 特性分析 · 統計信息計算方法
- MySQL · 捉蟲動態 · left-join多表導致crash
- 數據庫內核月報 - 2016/04
- MySQL · 參數故事 · innodb_additional_mem_pool_size
- GPDB · 特性分析 · Segment事務一致性與異常處理
- GPDB · 特性分析 · Segment 修復指南
- MySQL · 捉蟲動態 · 并行復制外鍵約束問題二
- PgSQL · 性能優化 · 如何瀟灑的處理每天上百TB的數據增量
- Memcached · 最佳實踐 · 熱點 Key 問題解決方案
- MongoDB · 最佳實踐 · 短連接Auth性能優化
- MySQL · 最佳實踐 · RDS 只讀實例延遲分析
- MySQL · TokuDB · TokuDB索引結構--Fractal Tree
- MySQL · TokuDB · Savepoint漫談
- 數據庫內核月報 - 2016/03
- MySQL · TokuDB · 事務子系統和 MVCC 實現
- MongoDB · 特性分析 · MMAPv1 存儲引擎原理
- PgSQL · 源碼分析 · 優化器邏輯推理
- SQLServer · BUG分析 · Agent 鏈接泄露分析
- Redis · 特性分析 · AOF Rewrite 分析
- MySQL · BUG分析 · Rename table 死鎖分析
- MySQL · 物理備份 · Percona XtraBackup 備份原理
- GPDB · 特性分析· GreenPlum FTS 機制
- MySQL · 答疑解惑 · 備庫Seconds_Behind_Master計算
- MySQL · 答疑解惑 · MySQL 鎖問題最佳實踐
- 數據庫內核月報 - 2016/02
- MySQL · 引擎特性 · InnoDB 文件系統之文件物理結構
- MySQL · 引擎特性 · InnoDB 文件系統之IO系統和內存管理
- MySQL · 特性分析 · InnoDB transaction history
- PgSQL · 會議見聞 · PgConf.Russia 2016 大會總結
- PgSQL · 答疑解惑 · PostgreSQL 9.6 并行查詢實現分析
- MySQL · TokuDB · TokuDB之黑科技工具
- PgSQL · 性能優化 · PostgreSQL TPC-C極限優化玩法
- MariaDB · 版本特性 · MariaDB 的 GTID 介紹
- MySQL · 特性分析 · 線程池
- MySQL · 答疑解惑 · mysqldump tips 兩則
- 數據庫內核月報 - 2016/01
- MySQL · 引擎特性 · InnoDB 事務鎖系統簡介
- GPDB · 特性分析· GreenPlum Primary/Mirror 同步機制
- MySQL · 專家投稿 · MySQL5.7 的 JSON 實現
- MySQL · 特性分析 · 優化器 MRR & BKA
- MySQL · 答疑解惑 · 物理備份死鎖分析
- MySQL · TokuDB · Cachetable 的工作線程和線程池
- MySQL · 特性分析 · drop table的優化
- MySQL · 答疑解惑 · GTID不一致分析
- PgSQL · 特性分析 · Plan Hint
- MariaDB · 社區動態 · MariaDB on Power8 (下)
- 數據庫內核月報 - 2015/12
- MySQL · 引擎特性 · InnoDB 事務子系統介紹
- PgSQL · 特性介紹 · 全文搜索介紹
- MongoDB · 捉蟲動態 · Kill Hang問題排查記錄
- MySQL · 參數優化 ·RDS MySQL參數調優最佳實踐
- PgSQL · 特性分析 · 備庫激活過程分析
- MySQL · TokuDB · 讓Hot Backup更完美
- PgSQL · 答疑解惑 · 表膨脹
- MySQL · 特性分析 · Index Condition Pushdown (ICP)
- MariaDB · 社區動態 · MariaDB on Power8
- MySQL · 特性分析 · 企業版特性一覽
- 數據庫內核月報 - 2015/11
- MySQL · 社區見聞 · OOW 2015 總結 MySQL 篇
- MySQL · 特性分析 · Statement Digest
- PgSQL · 答疑解惑 · PostgreSQL 用戶組權限管理
- MySQL · 特性分析 · MDL 實現分析
- PgSQL · 特性分析 · full page write 機制
- MySQL · 捉蟲動態 · MySQL 外鍵異常分析
- MySQL · 答疑解惑 · MySQL 優化器 range 的代價計算
- MySQL · 捉蟲動態 · ORDER/GROUP BY 導致 mysqld crash
- MySQL · TokuDB · TokuDB 中的行鎖
- MySQL · 捉蟲動態 · order by limit 造成優化器選擇索引錯誤
- 數據庫內核月報 - 2015/10
- MySQL · 引擎特性 · InnoDB 全文索引簡介
- MySQL · 特性分析 · 跟蹤Metadata lock
- MySQL · 答疑解惑 · 索引過濾性太差引起CPU飆高分析
- PgSQL · 特性分析 · PG主備流復制機制
- MySQL · 捉蟲動態 · start slave crash 診斷分析
- MySQL · 捉蟲動態 · 刪除索引導致表無法打開
- PgSQL · 特性分析 · PostgreSQL Aurora方案與DEMO
- TokuDB · 捉蟲動態 · CREATE DATABASE 導致crash問題
- PgSQL · 特性分析 · pg_receivexlog工具解析
- MySQL · 特性分析 · MySQL權限存儲與管理
- 數據庫內核月報 - 2015/09
- MySQL · 引擎特性 · InnoDB Adaptive hash index介紹
- PgSQL · 特性分析 · clog異步提交一致性、原子操作與fsync
- MySQL · 捉蟲動態 · BUG 幾例
- PgSQL · 答疑解惑 · 詭異的函數返回值
- MySQL · 捉蟲動態 · 建表過程中crash造成重建表失敗
- PgSQL · 特性分析 · 談談checkpoint的調度
- MySQL · 特性分析 · 5.6 并行復制恢復實現
- MySQL · 備庫優化 · relay fetch 備庫優化
- MySQL · 特性分析 · 5.6并行復制事件分發機制
- MySQL · TokuDB · 文件目錄談
- 數據庫內核月報 - 2015/08
- MySQL · 社區動態 · InnoDB Page Compression
- PgSQL · 答疑解惑 · RDS中的PostgreSQL備庫延遲原因分析
- MySQL · 社區動態 · MySQL5.6.26 Release Note解讀
- PgSQL · 捉蟲動態 · 執行大SQL語句提示無效的內存申請大小
- MySQL · 社區動態 · MariaDB InnoDB表空間碎片整理
- PgSQL · 答疑解惑 · 歸檔進程cp命令的core文件追查
- MySQL · 答疑解惑 · open file limits
- MySQL · TokuDB · 瘋狂的 filenum++
- MySQL · 功能分析 · 5.6 并行復制實現分析
- MySQL · 功能分析 · MySQL表定義緩存
- 數據庫內核月報 - 2015/07
- MySQL · 引擎特性 · Innodb change buffer介紹
- MySQL · TokuDB · TokuDB Checkpoint機制
- PgSQL · 特性分析 · 時間線解析
- PgSQL · 功能分析 · PostGIS 在 O2O應用中的優勢
- MySQL · 引擎特性 · InnoDB index lock前世今生
- MySQL · 社區動態 · MySQL內存分配支持NUMA
- MySQL · 答疑解惑 · 外鍵刪除bug分析
- MySQL · 引擎特性 · MySQL logical read-ahead
- MySQL · 功能介紹 · binlog拉取速度的控制
- MySQL · 答疑解惑 · 浮點型的顯示問題
- 數據庫內核月報 - 2015/06
- MySQL · 引擎特性 · InnoDB 崩潰恢復過程
- MySQL · 捉蟲動態 · 唯一鍵約束失效
- MySQL · 捉蟲動態 · ALTER IGNORE TABLE導致主備不一致
- MySQL · 答疑解惑 · MySQL Sort 分頁
- MySQL · 答疑解惑 · binlog event 中的 error code
- PgSQL · 功能分析 · Listen/Notify 功能
- MySQL · 捉蟲動態 · 任性的 normal shutdown
- PgSQL · 追根究底 · WAL日志空間的意外增長
- MySQL · 社區動態 · MariaDB Role 體系
- MySQL · TokuDB · TokuDB數據文件大小計算
- 數據庫內核月報 - 2015/05
- MySQL · 引擎特性 · InnoDB redo log漫游
- MySQL · 專家投稿 · MySQL數據庫SYS CPU高的可能性分析
- MySQL · 捉蟲動態 · 5.6 與 5.5 InnoDB 不兼容導致 crash
- MySQL · 答疑解惑 · InnoDB 預讀 VS Oracle 多塊讀
- PgSQL · 社區動態 · 9.5 新功能BRIN索引
- MySQL · 捉蟲動態 · MySQL DDL BUG
- MySQL · 答疑解惑 · set names 都做了什么
- MySQL · 捉蟲動態 · 臨時表操作導致主備不一致
- TokuDB · 引擎特性 · zstd壓縮算法
- MySQL · 答疑解惑 · binlog 位點刷新策略
- 數據庫內核月報 - 2015/04
- MySQL · 引擎特性 · InnoDB undo log 漫游
- TokuDB · 產品新聞 · RDS TokuDB小手冊
- PgSQL · 社區動態 · 說一說PgSQL 9.4.1中的那些安全補丁
- MySQL · 捉蟲動態 · 連接斷開導致XA事務丟失
- MySQL · 捉蟲動態 · GTID下slave_net_timeout值太小問題
- MySQL · 捉蟲動態 · Relay log 中 GTID group 完整性檢測
- MySQL · 答疑釋惑 · UPDATE交換列單表和多表的區別
- MySQL · 捉蟲動態 · 刪被引用索引導致crash
- MySQL · 答疑釋惑 · GTID下auto_position=0時數據不一致
- 數據庫內核月報 - 2015/03
- MySQL · 答疑釋惑· 并發Replace into導致的死鎖分析
- MySQL · 性能優化· 5.7.6 InnoDB page flush 優化
- MySQL · 捉蟲動態· pid file丟失問題分析
- MySQL · 答疑釋惑· using filesort VS using temporary
- MySQL · 優化限制· MySQL index_condition_pushdown
- MySQL · 捉蟲動態·DROP DATABASE外鍵約束的GTID BUG
- MySQL · 答疑釋惑· lower_case_table_names 使用問題
- PgSQL · 特性分析· Logical Decoding探索
- PgSQL · 特性分析· jsonb類型解析
- TokuDB ·引擎機制· TokuDB線程池
- 數據庫內核月報 - 2015/02
- MySQL · 性能優化· InnoDB buffer pool flush策略漫談
- MySQL · 社區動態· 5.6.23 InnoDB相關Bugfix
- PgSQL · 特性分析· Replication Slot
- PgSQL · 特性分析· pg_prewarm
- MySQL · 答疑釋惑· InnoDB丟失自增值
- MySQL · 答疑釋惑· 5.5 和 5.6 時間類型兼容問題
- MySQL · 捉蟲動態· 變量修改導致binlog錯誤
- MariaDB · 特性分析· 表/表空間加密
- MariaDB · 特性分析· Per-query variables
- TokuDB · 特性分析· 日志詳解
- 數據庫內核月報 - 2015/01
- MySQL · 性能優化· Group Commit優化
- MySQL · 新增特性· DDL fast fail
- MySQL · 性能優化· 啟用GTID場景的性能問題及優化
- MySQL · 捉蟲動態· InnoDB自增列重復值問題
- MySQL · 優化改進· 復制性能改進過程
- MySQL · 談古論今· key分區算法演變分析
- MySQL · 捉蟲動態· mysql client crash一例
- MySQL · 捉蟲動態· 設置 gtid_purged 破壞AUTO_POSITION復制協議
- MySQL · 捉蟲動態· replicate filter 和 GTID 一起使用的問題
- TokuDB·特性分析· Optimize Table
- 數據庫內核月報 - 2014/12
- MySQL· 性能優化·5.7 Innodb事務系統
- MySQL· 踩過的坑·5.6 GTID 和存儲引擎那會事
- MySQL· 性能優化·thread pool 原理分析
- MySQL· 性能優化·并行復制外建約束問題
- MySQL· 答疑釋惑·binlog event有序性
- MySQL· 答疑釋惑·server_id為0的Rotate
- MySQL· 性能優化·Bulk Load for CREATE INDEX
- MySQL· 捉蟲動態·Opened tables block read only
- MySQL· 優化改進· GTID啟動優化
- TokuDB· Binary Log Group Commit with TokuDB
- 數據庫內核月報 - 2014/11
- MySQL· 捉蟲動態·OPTIMIZE 不存在的表
- MySQL· 捉蟲動態·SIGHUP 導致 binlog 寫錯
- MySQL· 5.7改進·Recovery改進
- MySQL· 5.7特性·高可用支持
- MySQL· 5.7優化·Metadata Lock子系統的優化
- MySQL· 5.7特性·在線Truncate undo log 表空間
- MySQL· 性能優化·hash_scan 算法的實現解析
- TokuDB· 版本優化· 7.5.0
- TokuDB· 引擎特性· FAST UPDATES
- MariaDB· 性能優化·filesort with small LIMIT optimization
- 數據庫內核月報 - 2014/10
- MySQL· 5.7重構·Optimizer Cost Model
- MySQL· 系統限制·text字段數
- MySQL· 捉蟲動態·binlog重放失敗
- MySQL· 捉蟲動態·從庫OOM
- MySQL· 捉蟲動態·崩潰恢復失敗
- MySQL· 功能改進·InnoDB Warmup特性
- MySQL· 文件結構·告別frm文件
- MariaDB· 新鮮特性·ANALYZE statement 語法
- TokuDB· 主備復制·Read Free Replication
- TokuDB· 引擎特性·壓縮
- 數據庫內核月報 - 2014/09
- MySQL· 捉蟲動態·GTID 和 DELAYED
- MySQL· 限制改進·GTID和升級
- MySQL· 捉蟲動態·GTID 和 binlog_checksum
- MySQL· 引擎差異·create_time in status
- MySQL· 參數故事·thread_concurrency
- MySQL· 捉蟲動態·auto_increment
- MariaDB· 性能優化·Extended Keys
- MariaDB·主備復制·CREATE OR REPLACE
- TokuDB· 參數故事·數據安全和性能
- TokuDB· HA方案·TokuDB熱備
- 數據庫內核月報 - 2014/08
- MySQL· 參數故事·timed_mutexes
- MySQL· 參數故事·innodb_flush_log_at_trx_commit
- MySQL· 捉蟲動態·Count(Distinct) ERROR
- MySQL· 捉蟲動態·mysqldump BUFFER OVERFLOW
- MySQL· 捉蟲動態·long semaphore waits
- MariaDB·分支特性·支持大于16K的InnoDB Page Size
- MariaDB·分支特性·FusionIO特性支持
- TokuDB· 性能優化·Bulk Fetch
- TokuDB· 數據結構·Fractal-Trees與LSM-Trees對比
- TokuDB·社區八卦·TokuDB團隊