### 自定義分析器
雖然 Elasticsearch 內置了一系列的分析器,但是真正的強大之處在于定制你自己的分析器。你可以通過在配置文件中組合字符過濾器,分詞器和標記過濾器,來滿足特定數據的需求。
在 【分析器介紹】 中,我們提到 _分析器_ 是三個順序執行的組件的結合(字符過濾器,分詞器,標記過濾器)。
字符過濾器
> 字符過濾器是讓字符串在被分詞前變得更加“整潔”。例如,如果我們的文本是 HTML 格式,它可能會包含一些我們不想被索引的 HTML 標簽,諸如 `<p>` 或 `<div>`。
> 我們可以使用 [`html_strip` 字符過濾器](http://bit.ly/1B6f4Ay) 來刪除所有的 HTML 標簽,并且將 HTML 實體轉換成對應的 Unicode 字符,比如將 `Á` 轉成 `á`。
> 一個分析器可能包含零到多個字符過濾器。
分詞器
> 一個分析器 _必須_ 包含一個分詞器。分詞器將字符串分割成單獨的詞(terms)或標記(tokens)。`standard` 分析器使用 [`standard` 分詞器](http://bit.ly/1E3Fd1b)將字符串分割成單獨的字詞,刪除大部分標點符號,但是現存的其他分詞器會有不同的行為特征。
> 例如,[`keyword` 分詞器](http://bit.ly/1ICd585)輸出和它接收到的相同的字符串,不做任何分詞處理。[`whitespace` 分詞器]只通過空格來分割文本。[`pattern` 分詞器]可以通過正則表達式來分割文本。
標記過濾器
> 分詞結果的 _標記流_ 會根據各自的情況,傳遞給特定的標記過濾器。
> 標記過濾器可能修改,添加或刪除標記。我們已經提過 [`lowercase`](http://bit.ly/1DIeXvZ) 和 [`stop`](http://bit.ly/1INX4tN) 標記過濾器,但是 Elasticsearch 中有更多的選擇。[`stemmer` 標記過濾器](http://bit.ly/1AUfpDN)將單詞轉化為他們的根形態(root form)。[`ascii_folding` 標記過濾器](http://bit.ly/1ylU7Q7)會刪除變音符號,比如從 `très` 轉為 `tres`。 [`ngram`](http://bit.ly/1CbkmYe) 和 [`edge_ngram`](http://bit.ly/1DIf6j5) 可以讓標記更適合特殊匹配情況或自動完成。
在【深入搜索】中,我們將舉例介紹如何使用這些分詞器和過濾器。但是首先,我們需要闡述一下如何創建一個自定義分析器
### 創建自定義分析器
與索引設置一樣,我們預先配置好 `es_std` 分析器,我們可以再 `analysis` 字段下配置字符過濾器,分詞器和標記過濾器:
```
PUT /my_index
{
"settings": {
"analysis": {
"char_filter": { ... custom character filters ... },
"tokenizer": { ... custom tokenizers ... },
"filter": { ... custom token filters ... },
"analyzer": { ... custom analyzers ... }
}
}
}
```
作為例子,我們來配置一個這樣的分析器:
1. 用 `html_strip` 字符過濾器去除所有的 HTML 標簽
2. 將 `&` 替換成 `and`,使用一個自定義的 `mapping` 字符過濾器
```
"char_filter": {
"&_to_and": {
"type": "mapping",
"mappings": [ "&=> and "]
}
}
```
3. 使用 `standard` 分詞器分割單詞
4. 使用 `lowercase` 標記過濾器將詞轉為小寫
5. 用 `stop` 標記過濾器去除一些自定義停用詞。
```
"filter": {
"my_stopwords": {
"type": "stop",
"stopwords": [ "the", "a" ]
}
}
```
根據以上描述來將預定義好的分詞器和過濾器組合成我們的分析器:
```
"analyzer": {
"my_analyzer": {
"type": "custom",
"char_filter": [ "html_strip", "&_to_and" ],
"tokenizer": "standard",
"filter": [ "lowercase", "my_stopwords" ]
}
}
```
用下面的方式可以將以上請求合并成一條:
```
PUT /my_index
{
"settings": {
"analysis": {
"char_filter": {
"&_to_and": {
"type": "mapping",
"mappings": [ "&=> and "]
}},
"filter": {
"my_stopwords": {
"type": "stop",
"stopwords": [ "the", "a" ]
}},
"analyzer": {
"my_analyzer": {
"type": "custom",
"char_filter": [ "html_strip", "&_to_and" ],
"tokenizer": "standard",
"filter": [ "lowercase", "my_stopwords" ]
}}
}}}
```
<!-- SENSE: 070_Index_Mgmt/20_Custom_analyzer.json -->
創建索引后,用 `analyze` API 來測試新的分析器:
```
GET /my_index/_analyze?analyzer=my_analyzer
The quick & brown fox
```
<!-- SENSE: 070_Index_Mgmt/20_Custom_analyzer.json -->
下面的結果證明我們的分析器能正常工作了:
```
{
"tokens" : [
{ "token" : "quick", "position" : 2 },
{ "token" : "and", "position" : 3 },
{ "token" : "brown", "position" : 4 },
{ "token" : "fox", "position" : 5 }
]
}
```
除非我們告訴 Elasticsearch 在哪里使用,否則分析器不會起作用。我們可以通過下面的映射將它應用在一個 `string` 類型的字段上:
```
PUT /my_index/_mapping/my_type
{
"properties": {
"title": {
"type": "string",
"analyzer": "my_analyzer"
}
}
}
```
<!-- SENSE: 070_Index_Mgmt/20_Custom_analyzer.json -->
- Introduction
- 入門
- 是什么
- 安裝
- API
- 文檔
- 索引
- 搜索
- 聚合
- 小結
- 分布式
- 結語
- 分布式集群
- 空集群
- 集群健康
- 添加索引
- 故障轉移
- 橫向擴展
- 更多擴展
- 應對故障
- 數據
- 文檔
- 索引
- 獲取
- 存在
- 更新
- 創建
- 刪除
- 版本控制
- 局部更新
- Mget
- 批量
- 結語
- 分布式增刪改查
- 路由
- 分片交互
- 新建、索引和刪除
- 檢索
- 局部更新
- 批量請求
- 批量格式
- 搜索
- 空搜索
- 多索引和多類型
- 分頁
- 查詢字符串
- 映射和分析
- 數據類型差異
- 確切值對決全文
- 倒排索引
- 分析
- 映射
- 復合類型
- 結構化查詢
- 請求體查詢
- 結構化查詢
- 查詢與過濾
- 重要的查詢子句
- 過濾查詢
- 驗證查詢
- 結語
- 排序
- 排序
- 字符串排序
- 相關性
- 字段數據
- 分布式搜索
- 查詢階段
- 取回階段
- 搜索選項
- 掃描和滾屏
- 索引管理
- 創建刪除
- 設置
- 配置分析器
- 自定義分析器
- 映射
- 根對象
- 元數據中的source字段
- 元數據中的all字段
- 元數據中的ID字段
- 動態映射
- 自定義動態映射
- 默認映射
- 重建索引
- 別名
- 深入分片
- 使文本可以被搜索
- 動態索引
- 近實時搜索
- 持久化變更
- 合并段
- 結構化搜索
- 查詢準確值
- 組合過濾
- 查詢多個準確值
- 包含,而不是相等
- 范圍
- 處理 Null 值
- 緩存
- 過濾順序
- 全文搜索
- 匹配查詢
- 多詞查詢
- 組合查詢
- 布爾匹配
- 增加子句
- 控制分析
- 關聯失效
- 多字段搜索
- 多重查詢字符串
- 單一查詢字符串
- 最佳字段
- 最佳字段查詢調優
- 多重匹配查詢
- 最多字段查詢
- 跨字段對象查詢
- 以字段為中心查詢
- 全字段查詢
- 跨字段查詢
- 精確查詢
- 模糊匹配
- Phrase matching
- Slop
- Multi value fields
- Scoring
- Relevance
- Performance
- Shingles
- Partial_Matching
- Postcodes
- Prefix query
- Wildcard Regexp
- Match phrase prefix
- Index time
- Ngram intro
- Search as you type
- Compound words
- Relevance
- Scoring theory
- Practical scoring
- Query time boosting
- Query scoring
- Not quite not
- Ignoring TFIDF
- Function score query
- Popularity
- Boosting filtered subsets
- Random scoring
- Decay functions
- Pluggable similarities
- Conclusion
- Language intro
- Intro
- Using
- Configuring
- Language pitfalls
- One language per doc
- One language per field
- Mixed language fields
- Conclusion
- Identifying words
- Intro
- Standard analyzer
- Standard tokenizer
- ICU plugin
- ICU tokenizer
- Tidying text
- Token normalization
- Intro
- Lowercasing
- Removing diacritics
- Unicode world
- Case folding
- Character folding
- Sorting and collations
- Stemming
- Intro
- Algorithmic stemmers
- Dictionary stemmers
- Hunspell stemmer
- Choosing a stemmer
- Controlling stemming
- Stemming in situ
- Stopwords
- Intro
- Using stopwords
- Stopwords and performance
- Divide and conquer
- Phrase queries
- Common grams
- Relevance
- Synonyms
- Intro
- Using synonyms
- Synonym formats
- Expand contract
- Analysis chain
- Multi word synonyms
- Symbol synonyms
- Fuzzy matching
- Intro
- Fuzziness
- Fuzzy query
- Fuzzy match query
- Scoring fuzziness
- Phonetic matching
- Aggregations
- overview
- circuit breaker fd settings
- filtering
- facets
- docvalues
- eager
- breadth vs depth
- Conclusion
- concepts buckets
- basic example
- add metric
- nested bucket
- extra metrics
- bucket metric list
- histogram
- date histogram
- scope
- filtering
- sorting ordering
- approx intro
- cardinality
- percentiles
- sigterms intro
- sigterms
- fielddata
- analyzed vs not
- 地理坐標點
- 地理坐標點
- 通過地理坐標點過濾
- 地理坐標盒模型過濾器
- 地理距離過濾器
- 緩存地理位置過濾器
- 減少內存占用
- 按距離排序
- Geohashe
- Geohashe
- Geohashe映射
- Geohash單元過濾器
- 地理位置聚合
- 地理位置聚合
- 按距離聚合
- Geohash單元聚合器
- 范圍(邊界)聚合器
- 地理形狀
- 地理形狀
- 映射地理形狀
- 索引地理形狀
- 查詢地理形狀
- 在查詢中使用已索引的形狀
- 地理形狀的過濾與緩存
- 關系
- 關系
- 應用級別的Join操作
- 扁平化你的數據
- Top hits
- Concurrency
- Concurrency solutions
- 嵌套
- 嵌套對象
- 嵌套映射
- 嵌套查詢
- 嵌套排序
- 嵌套集合
- Parent Child
- Parent child
- Indexing parent child
- Has child
- Has parent
- Children agg
- Grandparents
- Practical considerations
- Scaling
- Shard
- Overallocation
- Kagillion shards
- Capacity planning
- Replica shards
- Multiple indices
- Index per timeframe
- Index templates
- Retiring data
- Index per user
- Shared index
- Faking it
- One big user
- Scale is not infinite
- Cluster Admin
- Marvel
- Health
- Node stats
- Other stats
- Deployment
- hardware
- other
- config
- dont touch
- heap
- file descriptors
- conclusion
- cluster settings
- Post Deployment
- dynamic settings
- logging
- indexing perf
- rolling restart
- backup
- restore
- conclusion