## 前言
從MySQL5.6版本開始支持InnoDB引擎的全文索引,語法層面上大多數兼容之前MyISAM的全文索引模式。所謂全文索引,是一種通過建立倒排索引,快速匹配文檔的方式。MySQL支持三種模式的全文檢索模式:
1. 自然語言模式([IN NATURAL LANGUAGE MODE](http://dev.mysql.com/doc/refman/5.7/en/fulltext-natural-language.html)),即通過MATCH AGAINST 傳遞某個特定的字符串來進行檢索。
2. 布爾模式([IN BOOLEAN MODE](http://dev.mysql.com/doc/refman/5.7/en/fulltext-boolean.html)),可以為檢索的字符串增加操作符,例如“+”表示必須包含,“-”表示不包含,“*”表示通配符(這種情況, 即使傳遞的字符串較小或出現在停詞中,也不會被過濾掉),其他還有很多特殊的布爾操作符,可以通過如下參數控制:
~~~
mysql> show variables like '%ft_boolean_syntax%';
+-------------------+----------------+
| Variable_name | Value |
+-------------------+----------------+
| ft_boolean_syntax | + -><()~*:""&| |
+-------------------+----------------+
1 row in set (0.00 sec)
~~~
3. 查詢擴展模式([WITH QUERY EXPANSION](http://dev.mysql.com/doc/refman/5.7/en/fulltext-query-expansion.html)), 這種模式是自然語言模式下的一個變種,會執行兩次檢索,第一次使用給定的短語進行檢索,第二次是結合第一次相關性比較高的行進行檢索。
目前MySQL支持在CHAR、VARCHAR、TEXT類型的列上定義全文索引。
本文只是簡單的分析了全文索引涉及到的代碼模塊以及5.7的一些新特性,源碼部分基于MySQL5.7.8-rc版本,更細節的部分并未深入。
## 創建全文索引
如下例所示,一個簡單的創建帶全文索引表的SQL:
~~~
create table t1 (a int auto_increment primary key, b text, fulltext(b));
~~~
磁盤上會產生多個文件:
~~~
$ls -lh /u01/my57/data/test/
total 1.3M
FTS_000000000000010b_0000000000000154_INDEX_1.ibd
FTS_000000000000010b_0000000000000154_INDEX_2.ibd
FTS_000000000000010b_0000000000000154_INDEX_3.ibd
FTS_000000000000010b_0000000000000154_INDEX_4.ibd
FTS_000000000000010b_0000000000000154_INDEX_5.ibd
FTS_000000000000010b_0000000000000154_INDEX_6.ibd
FTS_000000000000010b_BEING_DELETED_CACHE.ibd
FTS_000000000000010b_BEING_DELETED.ibd
FTS_000000000000010b_CONFIG.ibd
FTS_000000000000010b_DELETED_CACHE.ibd
FTS_000000000000010b_DELETED.ibd
t1.frm
t1.ibd
~~~
除了t1.frm和t1.ibd外,共分為以下幾類表
1. FTS_000000000000010b_0000000000000154_INDEX_1~6.ibd這6個文件用于存儲倒排索引,存儲的是分詞和位置以及document ID,根據分詞的第一個字符值進行分區,映射到不同的文件中;
文件的命名規則為FTS_{TABLE_ID}_{INDEX_ID}_INDEX_{N}.ibd
2. FTS_000000000000010b_DELETED.ibd 包含已經被刪除的DOC_ID,但還沒從全文索引數據中刪掉;
FTS_000000000000010b_DELETED_CACHE.ibd 是前者的內存緩存(但是搜索了下代碼,只有當`fts_cache_t::deleted_doc_ids`被使用時,才會在sync時轉儲到該表中,但并沒有發現任何地方使用這個對象)
3. FTS_000000000000010b_BEING_DELETED_CACHE.ibd 和 FTS_000000000000010b_BEING_DELETED.ibd,包含了已經被刪除索引記錄并且正在從全文索引中移除的DOC ID,前者是后者的內存版本,這兩個表主要用于輔助進行OPTIMIZE TABLE時將DELETED/DELETED_CACHED表中的記錄轉儲到其中。
4. FTS_000000000000010b_CONFIG.ibd,包含全文索引的內部信息,最重要的存儲是FTS_SYNCED_DOC_ID,表示已經解析并刷到磁盤的doc id, 在崩潰恢復時,可以根據這個值判斷哪些該重新解析并加入到索引cache中。
建全文索引輔助表函數參考:
~~~
ha_innobase::create
|--> create_table_info_t::create_table
|--> fts_create_common_tables
~~~
當對一個已經存在的表上創建全文索引時,InnoDB采用了fork多個線程進行并發構建全文索引項的方法,并發度由參數?`innodb_ft_sort_pll_degree`?控制。因此在restore一個全文索引表時,我們建議先建表、導入數據,再在表上創建全文索引。
參考函數:`row_merge_read_clustered_index --> row_fts_start_psort`
線程回調函數為`fts_parallel_tokenization`。
當表上存在全文索引時,就會隱式的建立一個名為FTS_DOC_ID的列,并在其上創建一個唯一索引,用于標識分詞出現的記錄行。你也可以顯式的創建一個名為FTS_DOC_ID的列,但需要和隱式創建的列類型保持一致。
為了維護表上的全文索引信息,全文索引模塊定義了大量的類來進行管理,總的來說如下圖所示:

圖1\. 全文索引模塊
## 普通DML及查詢操作
### 插入
我們可以通過INNODB_FT_INDEX_CACHE來檢查插入記錄的分詞:
~~~
mysql> insert into t1 values (NULL, 'hello, welcome to mysql world');
Query OK, 1 row affected (1.87 sec)
mysql> set global innodb_ft_aux_table = 'test/t1';
Query OK, 0 rows affected (0.00 sec)
mysql> select * from INNODB_FT_INDEX_CACHE;
+---------+--------------+-------------+-----------+--------+----------+
| WORD | FIRST_DOC_ID | LAST_DOC_ID | DOC_COUNT | DOC_ID | POSITION |
+---------+--------------+-------------+-----------+--------+----------+
| hello | 2 | 2 | 1 | 2 | 0 |
| mysql | 2 | 2 | 1 | 2 | 18 |
| welcome | 2 | 2 | 1 | 2 | 7 |
| world | 2 | 2 | 1 | 2 | 24 |
+---------+--------------+-------------+-----------+--------+----------+
4 rows in set (0.00 sec)
~~~
在插入一條記錄時,對應的堆棧如下:
~~~
row_insert_for_mysql
|--> row_insert_for_mysql_using_ins_graph
|--> fts_trx_add_op // state = FTS_INSERT
~~~
在向原表上插入完成記錄后,會去判斷表上是否有全文索引(DICT_TF2_FTS),如果有的話,則將插入記錄對應的doc id提取出來(`fts_get_doc_id_from_row`),并緩存到事務對象中。
### 刪除
刪除操作不會直接從全文索引里直接刪除,因此依然可以從INNODB_FT_INDEX_CACHE中查到分詞信息。
相關堆棧:
~~~
ha_innobase::delete_row
|--> row_update_for_mysql
|--> row_update_for_mysql_using_upd_graph
|--> row_fts_update_or_delete
|--> fts_trx_add_op // state = FTS_DELETE
~~~
### 更新
更新非全文索引列,不會修改FTS_DOC_ID列的值。如果更新了全文索引列,在InnoDB的實現是刪除老的DOC,并插入新的DOC。
堆棧為:
~~~
ha_innobase::update_row
|--> row_update_for_mysql
|--> row_update_for_mysql_using_upd_graph
|--> row_fts_update_or_delete
|--> row_fts_do_update
|--> fts_trx_add_op // state = FTS_DELETE
|--> fts_trx_add_op // state = FTS_INSERT
~~~
可見所有DML的操作,都走接口函數`fts_trx_add_op`,劃分為兩種操作: FTS_INSERT及FTS_DELETE;當前事務涉及的doc id被存儲到`trx->fts_trx`中,在執行SQL的過程中并沒有更新全文索引,而是在事務提交時進行的。
在緩存操作時,維護了兩個結構,一個是`trx->fts_trx->savepoints`,維護了事務全局的全文索引操作,另外一個是`trx->fts_trx->last_stmt`,維護的是當前SQL操作的doc id,前者在事務結束時處理,后者在SQL結束時清空。
### 查詢
對于全文索引的查詢,采用新的接口函數,分為兩步:
1. 根據檢索詞搜集符合條件的doc id。
~~~
JOIN::optimize
|--> init_ftfuncs
|--> Item_func_match::init_search
|--> ha_innobase::ft_init_ext
|--> fts_query
~~~
在搜集滿足查詢條件的doc id時,首先讀取DELETED表中記錄的doc id,這些doc id隨后被用做過濾。
2. 根據搜集到的doc id,找到對應的記錄,使用的索引是`dict_table_t::fts_doc_id_index`,也就是建立在隱藏列FTS_DOC_ID上的唯一索引。
~~~
sub_select
|--> join_ft_read_first
|--> ha_innobase::ft_init
|--> ha_innobase::ft_read
|--> join_ft_read_next
|--> ha_innobase::ft_read
~~~
通常查詢返回的結果是根據rank排序的,InnoDB的全文檢索排序規則和sphinx類似,基于 BM25 和 TF-IDF算法。
rank的計算算法如下:
~~~
${IDF} = log10( ${total_records} / ${matching_records} ) // total_records表示總的行記錄數,matching_records表示匹配到檢索字的行記錄數
${TF} 表示單詞在文檔中出現的次數
${rank} = ${TF} * ${IDF} * ${IDF}
~~~
IDF的計算參閱函數:`fts_query_calculate_idf`
ranking計算:`fts_query_calculate_ranking`
如果使用多個單詞匹配,則把各個單詞各自的rank累加起來。官方博客有[一篇文章](http://mysqlserverteam.com/rankings-with-innodb-full-text-search/)專門對此進行了介紹。
## 事務操作
事務內回滾
正在事務內回滾某個語句,或者回滾到某個savepoint時,需要將對應的操作記錄也要刪除。維護了`trx->fts_trx->last_stmt`,在單條SQL結束時釋放(`trx_mark_sql_stat_end`)。如果SQL回滾,就根據last_stmt中維護的doc id從全局savepoints中清理掉本條SQL的doc id。
相關堆棧:
~~~
innobase_rollback --> trx_rollback_last_sql_stat_for_mysql
|--> fts_savepoint_rollback_last_stmt
|--> fts_undo_last_stmt
|--> trx_mark_sql_stat_end
|--> fts_savepoint_laststmt_refresh
~~~
回滾到savepoint
~~~
innobase_rollback_to_savepoint
|--> fts_savepoint_rollback
~~~
事務提交
相關堆棧:
~~~
trx_commit_low
|--> fts_commit // 處理trx->fts_trx->savepoints中緩存的全文索引操作
|--> fts_commit_table
|--> fts_add
|--> fts_add_doc_by_id
|--> fts_delete
|--> trx_commit_in_memory
|--> trx_finalize_for_fts
|--> trx_finalize_for_fts_table
~~~
在調用fts_commit時,會根據不同的操作類型,調用fts_add增加全文索引項,調用fts_delete刪除全文索引項。
由于在插入記錄時,先分詞、分解成多個詞插入輔助表中,因此一條insert可能產生多個小的插入,這種寫入放大可能是不可承受的。InnoDB采用了一種優化的方案:創建一個內存cache,臨時緩存插入操作,當cache滿時再批量刷到磁盤,這樣做的好處是:
* 避免重復存儲相同的單詞;
* cache size 通過參數`innodb_ft_cache_size`控制;
* 查詢會將cache和磁盤數據進行merge。
在事務提交時,調用函數`fts_add_doc_by_id`:
* 首先根據doc id,使用doc_id所在的索引進行查詢,找到剛剛插入的記錄項對應的聚集索引記錄;
* 遍歷表上全部的聚集索引,根據全文索引對應的`fts_get_doc_t`(`fts_cache_t::get_docs`)構建`fts_doc_t`,對文檔根據選擇的parser進行分詞(`fts_tokenize_document`函數或者`fts_tokenize_document_next`),具體的文檔存儲到`fts_doc_t::text`中;
* 將上一步獲得的分詞加入到cache中(`fts_cache_add_doc`);
* 如果當前cache的大小超過配置的`innodb_ft_cache_size`,或者全局cache的大小超過`innodb_ft_total_cache_size`(`fts_need_sync`被設置為true),則進行一次sync,將該表緩存的數據刷到全文索引文件中(fts_sync),并清空cache。
和插入相似,刪除操作也可能產生大量小的刪除操作,為了避免這種情況,維持一個表,來記錄被刪除的doc id,但記錄依然存在于原文件中。刪除操作的提交函數為`fts_delete`,將被刪除的記錄doc_id插入到DELETED輔助表中。
事務模塊涉及的幾個關鍵類包括:

圖2\. 全文索引事務模塊
## 同步緩存
在滿足一定條件時,全文索引需要進行一次sync操作,將數據同步到全文索引文件中,大概包含以下集中情況需要sync:
* cache數據占用的內存超過限制;
* 后臺線程`fts_optimize_thread`在shutdown調用,將所有表進行一次sync;
* `ha_innobase::optimize`調用(執行optimize table);
* `row_merge_read_clustered_index`:創建一個新的臨時表并讀入數據后,進行一次sync調用。
同步操作的入口函數為fts_sync,大體流程為:
* 針對每個索引,調用函數`fts_sync_index`:通過函數`fts_select_index`計算寫入的索引文件,再將分詞節點信息寫入到文件(函數`fts_write_node`), 倒排索引的記錄內容使用結構體`fts_node_t`進行描述,存儲結構如下圖所示:

圖3\. 倒排索引結點存儲結構
* 調用`fts_sync_commit`提交sync操作:
* 更新CONFIG表記錄的最大SYNC的DOC ID(`fts_cmp_set_sync_doc_id`);
* 若`fts_cache_t::deleted_doc_ids`不為空,將其加入到DELETED_CACHE輔助表中(`fts_sync_add_deleted_cache`);
* 清空cache 并重新初始化。
## Optimize table
當你修改了某些配置(例如最小token size時),或者希望重組全文索引時,可以執行optimize table。由于原始optimize table操作會產生整個表的重建,耗時太久,因此InnoDB引入了一個參數`innodb_optimize_fulltext_only`來控制該行為。當開啟該選項時,如果執行optimize table,就只優化全文索引,而不會去重建表,入口函數為ha_innobase::optimize:
~~~
ha_innobase::optimize
|--> fts_sync_table
|--> fts_optimize_table
~~~
首先調用函數`fts_sync_table`,將表上在內存中cache的數據刷到全文索引文件中;
然后調用函數`fts_optimize_table`,我們主要分析集中在第二步。
`fts_optimize_table`函數流程如下:
* 如果BEGING_DELETED表中沒有數據(例如第一次調用optimized table),則將DELETED表中的數據轉儲到BEING_DELETED表中,相當于拿到了一個快照,執行的SQL操作為:
~~~
static const char* fts_init_delete_sql =
"BEGIN\n"
"\n"
"INSERT INTO $BEING_DELETED\n"
"SELECT doc_id FROM $DELETED;\n"
"\n"
"INSERT INTO $BEING_DELETED_CACHE\n"
"SELECT doc_id FROM $DELETED_CACHE;\n";
~~~
參考函數:`fts_optimize_create_deleted_doc_id_snapshot`
* 從BEING_DELETED/BEING_DELETED_CACHE表中讀取已經被刪除的doc id,這些doc id在隨后的索引優化中將被忽略掉。
參考函數:`fts_optimize_read_deleted_doc_id_snapshot`
* 調用`fts_optimize_indexes`?對每個索引進行優化,相關堆棧如下:
~~~
fts_optimize_indexes
|--> fts_optimize_index
|--> fts_optimize_index_read_words
// 讀入需要進行優化的分詞,一輪優化的個數不超過innodb_ft_num_word_optimize的配置值
// 緩存的分詞數據采用zlib進行壓縮
|--> fts_optimize_words // 讀取分詞,將已經刪除的doc id從其中清除,并回寫到db
|--> fts_index_fetch_nodes // 逐個讀取分詞對應的全文索引項
|--> fts_optimize_compact
|--> fts_optimize_word // 判斷是否包含被刪除的doc id,并重組記錄
|--> fts_optimize_write_word // 將記錄寫回索引,具體操作為先刪除老的記錄,再插入新的記錄
|--> fts_config_set_index_value //更新CONFIG表的FTS_LAST_OPTIMIZED_WORD列,記錄最近重組優化的分詞
|--> fts_optimize_index_completed // 若上述步驟將讀取的分詞全部處理完了,則本輪optimize操作完成
~~~
* 當在所有索引上完成optimize后,調用fts_optimize_purge_snapshot,主要操作包括:
* 從DELETE和DELETE_CACHE表中將doc id刪除,參考函數fts_optimize_purge_deleted_doc_ids
~~~
static const char* fts_delete_doc_ids_sql =
"BEGIN\n"
"\n"
"DELETE FROM $DELETED WHERE doc_id = :doc_id1;\n"
"DELETE FROM $DELETED_CACHE WHERE doc_id = :doc_id2;\n";
~~~
* 從BEING_DELETED及BEING_DELETED_CACHE中刪除對應的doc id。
~~~
static const char* fts_end_delete_sql =
"BEGIN\n"
"\n"
"DELETE FROM $BEING_DELETED;\n"
"DELETE FROM $BEING_DELETED_CACHE;\n";
~~~
參考函數:?`fts_optimize_purge_deleted_doc_id_snapshot`
## 后臺線程
InnoDB啟動時,會創建一個后臺線程,線程函數為`fts_optimize_thread`,工作隊列為`fts_optimize_wq`,其主要目的是在滿足一定條件時,對表自動進行optimize操作。
在如下兩種情況,會向`fts_optimize_wq`中增加元組:
* `fts_optimize_add_table`: 創建或打開一個新的帶全文索引的表時,創建一個類型為`FTS_MSG_ADD_TABLE`并包含表對象指針的MSG,加入到`fts_optimize_wq`中,這些表禁止被從數據詞典中驅逐;
* `fts_optimize_remove_table`: 刪除表、DDL、釋放表對象(`dict_mem_table_free`)、刪除全文索引(`fts_drop_index`)等操作時,會創建一個類型為`FTS_MSG_DEL_TABLE的MEG`,加入到`fts_optimize_wq`隊列中。
fts optimize線程對于FTS_MSG_ADD_TABLE類型的會將相應的表加入到調度隊列,對于FTS_MSG_DEL_TABLE,則從調度隊列中刪除。其調度隊列的成員類型為`fts_slot_t`。
當表上刪除的數據量超過一千萬(FTS_OPTIMIZE_THRESHOLD)行時,就會觸發一次自動optimize table,但兩次optimize的間隔不應低于300秒(FTS_OPTIMIZE_INTERVAL_IN_SECS)。
## 監控
我們可以通過幾個INFORMATION_SCHEMA下的全文索引表來監控全文索引狀態。
~~~
mysql> show tables like '%ft%';
+-------------------------------------+
| Tables_in_information_schema (%ft%) |
+-------------------------------------+
| INNODB_FT_CONFIG |
| INNODB_FT_BEING_DELETED |
| INNODB_FT_DELETED |
| INNODB_FT_DEFAULT_STOPWORD |
| INNODB_FT_INDEX_TABLE |
| INNODB_FT_INDEX_CACHE |
+-------------------------------------+
6 rows in set (0.00 sec)
~~~
想要從information_schema表中查詢信息,需要先設置變量`innodb_ft_aux_table`,值為你要查詢表的”dbname/tablename”。
## 全文索引停詞
停詞(STOP WORD)用于在分詞時忽略那些常見的不重要的單詞,InnoDB目前內建的停詞可以從information_schema.INNODB_FT_DEFAULT_STOPWORD讀取,用戶也可以自己定義停詞列表,方法很簡單:創建一個和nformation_schema.INNODB_FT_DEFAULT_STOPWORD一模一樣的表,將你想要的停詞加入到其中,然后設置`innodb_ft_server_stopword_table`值為你創建的表名:”dbname/tabname”。
你也可以使用會話級別的參數`innodb_ft_user_stopword_table`來指定你想要的停詞表,和上述創建規則一致,具體的參閱[官方文檔](http://dev.mysql.com/doc/refman/5.7/en/fulltext-stopwords.html)。
另外配置項`innodb_ft_min_token_size`及`innodb_ft_max_token_size`?用于表示一個單詞的字符長度范圍,在這個范圍的連續字符串才會被當作一個單詞。然而如果使用ngram解析器的話,有效單詞長度受參數`ngram_token_size`控制。
可以關閉參數`innodb_ft_enable_stopword`,這樣在分詞時也會把預設的停詞考慮進去。
## InnoDB全文索引插件
從MySQL 5.7.3開始InnoDB支持全文索引插件,用戶可以以Plugin的模式來定義自己的分詞規則,或是引入社區開發的全文索引解析器,例如某些專業領域的分詞,可能具有不同的規則。
全文索引插件有兩種角色:第一種是替換內建的parser,讀取輸入文檔,進行解析后,將分詞傳送給server;另一種角色是作為內建parser的協作者,可以把輸入文檔處理過后,再傳送給內建parser。
如果你已經有一個基于MYISAM的全文索引插件了,也可以根據[這篇官方文檔](http://mysqlserverteam.com/innodb-supports-plugin-parser-in-fulltext-index/)的介紹,將其修改成InnoDB全文索引插件。
## InnoDB N-gram parser
從MySQL5.7.6版本開始提供了一種內建的全文索引ngram parser,可以很好的支持CJK字符集(中文、日文、韓文),CJK有個共同點就是單詞不像英語習慣那樣根據空格進行分解的,因此傳統的內建分詞方式無法準確的對類似中文進行分詞。
ngram parser內建在代碼中,該解析器默安裝,你可以通過指定索引屬性(`WITH PARSER ngram`)來利用該parser,例如:
~~~
mysql> create table ft_test(id int, content text, fulltext (content) with parser ngram);
Query OK, 0 rows affected (0.26 sec)
~~~
N-Gram使用一種特殊的方式來進行分詞,舉個簡單的例子,假設要對單詞’abcd’進行分詞,那么其分詞結果為:
~~~
N=1 : 'a', 'b', 'c', 'd';
N=2 : 'ab', 'bc', 'cd';
N=3 : 'abc', 'bcd';
N=4 : 'abcd';
~~~
N取決于`ngram_token_size`的設置,默認值為2。
對于停詞的處理,N-Gram和默認的parser不同,即只要每個token包含了(而不是精確匹配)停詞,就不對其進行索引;另外空格總是作為一個停詞,因此在分詞取token時,空格會被忽略掉。
在執行查詢時,用戶傳遞的搜索詞也會基于N-Gram進行分解后進行檢索。 具體的例子可以參閱[官方博客](http://mysqlserverteam.com/innodb-full-text-n-gram-parser/)的描述。
除了N-gram parser外,官方也支持了另外一種名為[MeCab Parser](http://mysqlserverteam.com/innodb-full-text-mecab-parser/)的插件,主要用于日語分詞,但需要手動安裝。
- 數據庫內核月報目錄
- 數據庫內核月報 - 2016/09
- MySQL · 社區貢獻 · AliSQL那些事兒
- PetaData · 架構體系 · PetaData第二代低成本存儲體系
- MySQL · 社區動態 · MariaDB 10.2 前瞻
- MySQL · 特性分析 · 執行計劃緩存設計與實現
- PgSQL · 最佳實踐 · pg_rman源碼淺析與使用
- MySQL · 捉蟲狀態 · bug分析兩例
- PgSQL · 源碼分析 · PG優化器淺析
- MongoDB · 特性分析· Sharding原理與應用
- PgSQL · 源碼分析 · PG中的無鎖算法和原子操作應用一則
- SQLServer · 最佳實踐 · TEMPDB的設計
- 數據庫內核月報 - 2016/08
- MySQL · 特性分析 ·MySQL 5.7新特性系列四
- PgSQL · PostgreSQL 邏輯流復制技術的秘密
- MySQL · 特性分析 · MyRocks簡介
- GPDB · 特性分析· Greenplum 備份架構
- SQLServer · 最佳實踐 · RDS for SQLServer 2012權限限制提升與改善
- TokuDB · 引擎特性 · REPLACE 語句優化
- MySQL · 專家投稿 · InnoDB物理行中null值的存儲的推斷與驗證
- PgSQL · 實戰經驗 · 旋轉門壓縮算法在PostgreSQL中的實現
- MySQL · 源碼分析 · Query Cache并發處理
- PgSQL · 源碼分析· pg_dump分析
- 數據庫內核月報 - 2016/07
- MySQL · 特性分析 ·MySQL 5.7新特性系列三
- MySQL · 特性分析 · 5.7 代價模型淺析
- PgSQL · 實戰經驗 · 分組TOP性能提升44倍
- MySQL · 源碼分析 · 網絡通信模塊淺析
- MongoDB · 特性分析 · 索引原理
- SQLServer · 特性分析 · XML與JSON應用比較
- MySQL · 最佳實戰 · 審計日志實用案例分析
- MySQL · 性能優化 · 條件下推到物化表
- MySQL · 源碼分析 · Query Cache內部剖析
- MySQL · 捉蟲動態 · 備庫1206錯誤問題說明
- 數據庫內核月報 - 2016/06
- MySQL · 特性分析 · innodb 鎖分裂繼承與遷移
- MySQL · 特性分析 ·MySQL 5.7新特性系列二
- PgSQL · 實戰經驗 · 如何預測Freeze IO風暴
- GPDB · 特性分析· Filespace和Tablespace
- MariaDB · 新特性 · 窗口函數
- MySQL · TokuDB · checkpoint過程
- MySQL · 特性分析 · 內部臨時表
- MySQL · 最佳實踐 · 空間優化
- SQLServer · 最佳實踐 · 數據庫實現大容量插入的幾種方式
- 數據庫內核月報 - 2016/05
- MySQL · 引擎特性 · 基于InnoDB的物理復制實現
- MySQL · 特性分析 · MySQL 5.7新特性系列一
- PostgreSQL · 特性分析 · 邏輯結構和權限體系
- MySQL · 特性分析 · innodb buffer pool相關特性
- PG&GP · 特性分析 · 外部數據導入接口實現分析
- SQLServer · 最佳實踐 · 透明數據加密在SQLServer的應用
- MySQL · TokuDB · 日志子系統和崩潰恢復過程
- MongoDB · 特性分析 · Sharded cluster架構原理
- PostgreSQL · 特性分析 · 統計信息計算方法
- MySQL · 捉蟲動態 · left-join多表導致crash
- 數據庫內核月報 - 2016/04
- MySQL · 參數故事 · innodb_additional_mem_pool_size
- GPDB · 特性分析 · Segment事務一致性與異常處理
- GPDB · 特性分析 · Segment 修復指南
- MySQL · 捉蟲動態 · 并行復制外鍵約束問題二
- PgSQL · 性能優化 · 如何瀟灑的處理每天上百TB的數據增量
- Memcached · 最佳實踐 · 熱點 Key 問題解決方案
- MongoDB · 最佳實踐 · 短連接Auth性能優化
- MySQL · 最佳實踐 · RDS 只讀實例延遲分析
- MySQL · TokuDB · TokuDB索引結構--Fractal Tree
- MySQL · TokuDB · Savepoint漫談
- 數據庫內核月報 - 2016/03
- MySQL · TokuDB · 事務子系統和 MVCC 實現
- MongoDB · 特性分析 · MMAPv1 存儲引擎原理
- PgSQL · 源碼分析 · 優化器邏輯推理
- SQLServer · BUG分析 · Agent 鏈接泄露分析
- Redis · 特性分析 · AOF Rewrite 分析
- MySQL · BUG分析 · Rename table 死鎖分析
- MySQL · 物理備份 · Percona XtraBackup 備份原理
- GPDB · 特性分析· GreenPlum FTS 機制
- MySQL · 答疑解惑 · 備庫Seconds_Behind_Master計算
- MySQL · 答疑解惑 · MySQL 鎖問題最佳實踐
- 數據庫內核月報 - 2016/02
- MySQL · 引擎特性 · InnoDB 文件系統之文件物理結構
- MySQL · 引擎特性 · InnoDB 文件系統之IO系統和內存管理
- MySQL · 特性分析 · InnoDB transaction history
- PgSQL · 會議見聞 · PgConf.Russia 2016 大會總結
- PgSQL · 答疑解惑 · PostgreSQL 9.6 并行查詢實現分析
- MySQL · TokuDB · TokuDB之黑科技工具
- PgSQL · 性能優化 · PostgreSQL TPC-C極限優化玩法
- MariaDB · 版本特性 · MariaDB 的 GTID 介紹
- MySQL · 特性分析 · 線程池
- MySQL · 答疑解惑 · mysqldump tips 兩則
- 數據庫內核月報 - 2016/01
- MySQL · 引擎特性 · InnoDB 事務鎖系統簡介
- GPDB · 特性分析· GreenPlum Primary/Mirror 同步機制
- MySQL · 專家投稿 · MySQL5.7 的 JSON 實現
- MySQL · 特性分析 · 優化器 MRR & BKA
- MySQL · 答疑解惑 · 物理備份死鎖分析
- MySQL · TokuDB · Cachetable 的工作線程和線程池
- MySQL · 特性分析 · drop table的優化
- MySQL · 答疑解惑 · GTID不一致分析
- PgSQL · 特性分析 · Plan Hint
- MariaDB · 社區動態 · MariaDB on Power8 (下)
- 數據庫內核月報 - 2015/12
- MySQL · 引擎特性 · InnoDB 事務子系統介紹
- PgSQL · 特性介紹 · 全文搜索介紹
- MongoDB · 捉蟲動態 · Kill Hang問題排查記錄
- MySQL · 參數優化 ·RDS MySQL參數調優最佳實踐
- PgSQL · 特性分析 · 備庫激活過程分析
- MySQL · TokuDB · 讓Hot Backup更完美
- PgSQL · 答疑解惑 · 表膨脹
- MySQL · 特性分析 · Index Condition Pushdown (ICP)
- MariaDB · 社區動態 · MariaDB on Power8
- MySQL · 特性分析 · 企業版特性一覽
- 數據庫內核月報 - 2015/11
- MySQL · 社區見聞 · OOW 2015 總結 MySQL 篇
- MySQL · 特性分析 · Statement Digest
- PgSQL · 答疑解惑 · PostgreSQL 用戶組權限管理
- MySQL · 特性分析 · MDL 實現分析
- PgSQL · 特性分析 · full page write 機制
- MySQL · 捉蟲動態 · MySQL 外鍵異常分析
- MySQL · 答疑解惑 · MySQL 優化器 range 的代價計算
- MySQL · 捉蟲動態 · ORDER/GROUP BY 導致 mysqld crash
- MySQL · TokuDB · TokuDB 中的行鎖
- MySQL · 捉蟲動態 · order by limit 造成優化器選擇索引錯誤
- 數據庫內核月報 - 2015/10
- MySQL · 引擎特性 · InnoDB 全文索引簡介
- MySQL · 特性分析 · 跟蹤Metadata lock
- MySQL · 答疑解惑 · 索引過濾性太差引起CPU飆高分析
- PgSQL · 特性分析 · PG主備流復制機制
- MySQL · 捉蟲動態 · start slave crash 診斷分析
- MySQL · 捉蟲動態 · 刪除索引導致表無法打開
- PgSQL · 特性分析 · PostgreSQL Aurora方案與DEMO
- TokuDB · 捉蟲動態 · CREATE DATABASE 導致crash問題
- PgSQL · 特性分析 · pg_receivexlog工具解析
- MySQL · 特性分析 · MySQL權限存儲與管理
- 數據庫內核月報 - 2015/09
- MySQL · 引擎特性 · InnoDB Adaptive hash index介紹
- PgSQL · 特性分析 · clog異步提交一致性、原子操作與fsync
- MySQL · 捉蟲動態 · BUG 幾例
- PgSQL · 答疑解惑 · 詭異的函數返回值
- MySQL · 捉蟲動態 · 建表過程中crash造成重建表失敗
- PgSQL · 特性分析 · 談談checkpoint的調度
- MySQL · 特性分析 · 5.6 并行復制恢復實現
- MySQL · 備庫優化 · relay fetch 備庫優化
- MySQL · 特性分析 · 5.6并行復制事件分發機制
- MySQL · TokuDB · 文件目錄談
- 數據庫內核月報 - 2015/08
- MySQL · 社區動態 · InnoDB Page Compression
- PgSQL · 答疑解惑 · RDS中的PostgreSQL備庫延遲原因分析
- MySQL · 社區動態 · MySQL5.6.26 Release Note解讀
- PgSQL · 捉蟲動態 · 執行大SQL語句提示無效的內存申請大小
- MySQL · 社區動態 · MariaDB InnoDB表空間碎片整理
- PgSQL · 答疑解惑 · 歸檔進程cp命令的core文件追查
- MySQL · 答疑解惑 · open file limits
- MySQL · TokuDB · 瘋狂的 filenum++
- MySQL · 功能分析 · 5.6 并行復制實現分析
- MySQL · 功能分析 · MySQL表定義緩存
- 數據庫內核月報 - 2015/07
- MySQL · 引擎特性 · Innodb change buffer介紹
- MySQL · TokuDB · TokuDB Checkpoint機制
- PgSQL · 特性分析 · 時間線解析
- PgSQL · 功能分析 · PostGIS 在 O2O應用中的優勢
- MySQL · 引擎特性 · InnoDB index lock前世今生
- MySQL · 社區動態 · MySQL內存分配支持NUMA
- MySQL · 答疑解惑 · 外鍵刪除bug分析
- MySQL · 引擎特性 · MySQL logical read-ahead
- MySQL · 功能介紹 · binlog拉取速度的控制
- MySQL · 答疑解惑 · 浮點型的顯示問題
- 數據庫內核月報 - 2015/06
- MySQL · 引擎特性 · InnoDB 崩潰恢復過程
- MySQL · 捉蟲動態 · 唯一鍵約束失效
- MySQL · 捉蟲動態 · ALTER IGNORE TABLE導致主備不一致
- MySQL · 答疑解惑 · MySQL Sort 分頁
- MySQL · 答疑解惑 · binlog event 中的 error code
- PgSQL · 功能分析 · Listen/Notify 功能
- MySQL · 捉蟲動態 · 任性的 normal shutdown
- PgSQL · 追根究底 · WAL日志空間的意外增長
- MySQL · 社區動態 · MariaDB Role 體系
- MySQL · TokuDB · TokuDB數據文件大小計算
- 數據庫內核月報 - 2015/05
- MySQL · 引擎特性 · InnoDB redo log漫游
- MySQL · 專家投稿 · MySQL數據庫SYS CPU高的可能性分析
- MySQL · 捉蟲動態 · 5.6 與 5.5 InnoDB 不兼容導致 crash
- MySQL · 答疑解惑 · InnoDB 預讀 VS Oracle 多塊讀
- PgSQL · 社區動態 · 9.5 新功能BRIN索引
- MySQL · 捉蟲動態 · MySQL DDL BUG
- MySQL · 答疑解惑 · set names 都做了什么
- MySQL · 捉蟲動態 · 臨時表操作導致主備不一致
- TokuDB · 引擎特性 · zstd壓縮算法
- MySQL · 答疑解惑 · binlog 位點刷新策略
- 數據庫內核月報 - 2015/04
- MySQL · 引擎特性 · InnoDB undo log 漫游
- TokuDB · 產品新聞 · RDS TokuDB小手冊
- PgSQL · 社區動態 · 說一說PgSQL 9.4.1中的那些安全補丁
- MySQL · 捉蟲動態 · 連接斷開導致XA事務丟失
- MySQL · 捉蟲動態 · GTID下slave_net_timeout值太小問題
- MySQL · 捉蟲動態 · Relay log 中 GTID group 完整性檢測
- MySQL · 答疑釋惑 · UPDATE交換列單表和多表的區別
- MySQL · 捉蟲動態 · 刪被引用索引導致crash
- MySQL · 答疑釋惑 · GTID下auto_position=0時數據不一致
- 數據庫內核月報 - 2015/03
- MySQL · 答疑釋惑· 并發Replace into導致的死鎖分析
- MySQL · 性能優化· 5.7.6 InnoDB page flush 優化
- MySQL · 捉蟲動態· pid file丟失問題分析
- MySQL · 答疑釋惑· using filesort VS using temporary
- MySQL · 優化限制· MySQL index_condition_pushdown
- MySQL · 捉蟲動態·DROP DATABASE外鍵約束的GTID BUG
- MySQL · 答疑釋惑· lower_case_table_names 使用問題
- PgSQL · 特性分析· Logical Decoding探索
- PgSQL · 特性分析· jsonb類型解析
- TokuDB ·引擎機制· TokuDB線程池
- 數據庫內核月報 - 2015/02
- MySQL · 性能優化· InnoDB buffer pool flush策略漫談
- MySQL · 社區動態· 5.6.23 InnoDB相關Bugfix
- PgSQL · 特性分析· Replication Slot
- PgSQL · 特性分析· pg_prewarm
- MySQL · 答疑釋惑· InnoDB丟失自增值
- MySQL · 答疑釋惑· 5.5 和 5.6 時間類型兼容問題
- MySQL · 捉蟲動態· 變量修改導致binlog錯誤
- MariaDB · 特性分析· 表/表空間加密
- MariaDB · 特性分析· Per-query variables
- TokuDB · 特性分析· 日志詳解
- 數據庫內核月報 - 2015/01
- MySQL · 性能優化· Group Commit優化
- MySQL · 新增特性· DDL fast fail
- MySQL · 性能優化· 啟用GTID場景的性能問題及優化
- MySQL · 捉蟲動態· InnoDB自增列重復值問題
- MySQL · 優化改進· 復制性能改進過程
- MySQL · 談古論今· key分區算法演變分析
- MySQL · 捉蟲動態· mysql client crash一例
- MySQL · 捉蟲動態· 設置 gtid_purged 破壞AUTO_POSITION復制協議
- MySQL · 捉蟲動態· replicate filter 和 GTID 一起使用的問題
- TokuDB·特性分析· Optimize Table
- 數據庫內核月報 - 2014/12
- MySQL· 性能優化·5.7 Innodb事務系統
- MySQL· 踩過的坑·5.6 GTID 和存儲引擎那會事
- MySQL· 性能優化·thread pool 原理分析
- MySQL· 性能優化·并行復制外建約束問題
- MySQL· 答疑釋惑·binlog event有序性
- MySQL· 答疑釋惑·server_id為0的Rotate
- MySQL· 性能優化·Bulk Load for CREATE INDEX
- MySQL· 捉蟲動態·Opened tables block read only
- MySQL· 優化改進· GTID啟動優化
- TokuDB· Binary Log Group Commit with TokuDB
- 數據庫內核月報 - 2014/11
- MySQL· 捉蟲動態·OPTIMIZE 不存在的表
- MySQL· 捉蟲動態·SIGHUP 導致 binlog 寫錯
- MySQL· 5.7改進·Recovery改進
- MySQL· 5.7特性·高可用支持
- MySQL· 5.7優化·Metadata Lock子系統的優化
- MySQL· 5.7特性·在線Truncate undo log 表空間
- MySQL· 性能優化·hash_scan 算法的實現解析
- TokuDB· 版本優化· 7.5.0
- TokuDB· 引擎特性· FAST UPDATES
- MariaDB· 性能優化·filesort with small LIMIT optimization
- 數據庫內核月報 - 2014/10
- MySQL· 5.7重構·Optimizer Cost Model
- MySQL· 系統限制·text字段數
- MySQL· 捉蟲動態·binlog重放失敗
- MySQL· 捉蟲動態·從庫OOM
- MySQL· 捉蟲動態·崩潰恢復失敗
- MySQL· 功能改進·InnoDB Warmup特性
- MySQL· 文件結構·告別frm文件
- MariaDB· 新鮮特性·ANALYZE statement 語法
- TokuDB· 主備復制·Read Free Replication
- TokuDB· 引擎特性·壓縮
- 數據庫內核月報 - 2014/09
- MySQL· 捉蟲動態·GTID 和 DELAYED
- MySQL· 限制改進·GTID和升級
- MySQL· 捉蟲動態·GTID 和 binlog_checksum
- MySQL· 引擎差異·create_time in status
- MySQL· 參數故事·thread_concurrency
- MySQL· 捉蟲動態·auto_increment
- MariaDB· 性能優化·Extended Keys
- MariaDB·主備復制·CREATE OR REPLACE
- TokuDB· 參數故事·數據安全和性能
- TokuDB· HA方案·TokuDB熱備
- 數據庫內核月報 - 2014/08
- MySQL· 參數故事·timed_mutexes
- MySQL· 參數故事·innodb_flush_log_at_trx_commit
- MySQL· 捉蟲動態·Count(Distinct) ERROR
- MySQL· 捉蟲動態·mysqldump BUFFER OVERFLOW
- MySQL· 捉蟲動態·long semaphore waits
- MariaDB·分支特性·支持大于16K的InnoDB Page Size
- MariaDB·分支特性·FusionIO特性支持
- TokuDB· 性能優化·Bulk Fetch
- TokuDB· 數據結構·Fractal-Trees與LSM-Trees對比
- TokuDB·社區八卦·TokuDB團隊