# 1.2中文分詞
Elasticsearch中,內置了很多分詞器(analyzers),例如standard (標準分詞器)、english (英文分詞)和chinese (中文分詞,但是分詞效果不好)
安裝中文分詞ik分詞器
```
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.2.2/elasticsearch-analysis-ik-6.2.2.zip
```
上面的版本必須和elasticsearch版本一致
Elastic 的分詞器稱為 analyzer。我們對每個字段指定分詞器。
如:
```
"user": {
"type": "text",
"analyzer": "ik_max_word", #字段的文本進行分詞的分詞器
"search_analyzer": "ik_max_word" #搜索詞進行分詞的分詞器
}
```
ik_max_word 和 ik_smart 什么區別?
>ik_max_word: 會將文本做最細粒度的拆分,比如會將“中華人民共和國國歌”拆分為“中華人民共和國,中華人民,中華,華人,人民共和國,人民,人,民,共和國,共和,和,國國,國歌”,會窮盡各種可能的組合;
ik_smart: 會做最粗粒度的拆分,比如會將“中華人民共和國國歌”拆分為“中華人民共和國,國歌”。
測試:
```
POST _analyze?pretty
{
"analyzer": "ik_smart",
"text": "中華人民共和國萬歲"
}
```

詳細參考:
[GitHub開源elasticsearch-analysis-ik分詞](https://github.com/medcl/elasticsearch-analysis-ik)
- 目錄
- 前言
- ElasticSearch基礎
- 基礎概念
- 生產環境配置
- ElasticSearch插件
- ElasticSearch-head插件
- 中文分詞
- ElasticSearch安全插件x-pack
- ElasticSearch查詢
- ElasticSearch語法
- 創建索引
- 新增文檔
- 修改文檔
- 查詢文檔
- 簡單查詢
- 基礎查詢
- 聚合查詢
- 刪除文檔
- ElasticSearch高級查詢
- filter語法
- 關聯查詢
- SpringBoot集成ES的操作
- java操作ES
- Spring-data-elasticsearch操作ES
- SpringBoot性能優化
- ElasticSearch的優化
- ElasticSearch系統優化
- ElasticSearch數據的備份與恢復
- ElasticSearch性能調優
- ElasticSearch集群監控
- ElasticSearch問題匯總
- ElasticSearch問題
- ElasticSearch學習網站