<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??碼云GVP開源項目 12k star Uniapp+ElementUI 功能強大 支持多語言、二開方便! 廣告
                >[info] ik分詞器 ik分詞器安裝聲明:安裝完成后需要重新啟動elasticsearch,elasticsearch-head,kibana。 ***** **安裝:** ``` # 以root身份在es進入目錄plugins下新建一個 ik 目錄 cd /usr/local/es/elasticsearch-7.6.1/plugins mkdir ik && cd ik # 上傳 并解壓 elasticsearch-analysis-ik-7.6.1.zip unzip elasticsearch-analysis-ik-7.6.1.zip # 切換成 es 用戶再次啟動es,如報錯屬于包不完整,重新下載即可。 ./bin/elasticsearch -d # 官網下載地址:https://github.com/medcl/elasticsearch-analysis-ik/releases ``` ***** >[info] ik分詞器介紹 **分詞:** * 即把一段中文或者別的劃分成一個個的關鍵字,我們在搜索時候會把自己的信息進行分詞,會把數據庫中 或者索引庫中的數據進行分詞,然后進行一個匹配操作,默認的中文分詞是將每個字看成一個詞,比如: "中國的花"會被分為"中","國","的","花",這顯然是不符合要求的,所以我們需要安裝中文分詞器ik來解決這個問題。 * IK提供了兩個分詞算法:**ik\_smart** 和 **ik\_max\_word**,其中 ik\_smart 為最少切分,ik\_max\_word為最細粒度劃分!一會我們測試! **查看加載的插件:** ``` ./bin/elasticsearch-plugin list ``` ![](https://img.kancloud.cn/ce/70/ce70e2cc829c4f63025c0bfee04ba761_455x132.png) ***** >[info] ik\_smart 為最少切分 ``` GET _analyze { "analyzer": "ik_smart", "text": "初心好帥" } ``` ![](https://img.kancloud.cn/ce/14/ce147378ff7c3692e8827e104347dff7_1379x617.png) >[info] ik\_max\_word為最細粒度劃分!窮盡詞庫的各種可能!字典! ``` GET _analyze { "analyzer": "ik_max_word", "text": "好好學習天天向上" } ``` ![](https://img.kancloud.cn/ff/86/ff8604a358598a4c1805ae023038bcaa_1180x625.png) >[info] ik 分詞器增加自己的配置 ``` # 可以使用 phpstorm 操作 # 在 /usr/local/es/elasticsearch-7.6.1/plugins/ik/config 下新建 xx.dic(starsky.dic)文件 vim starsky.dic # 寫入內容:初心好帥 直接作為一個整詞 初心好帥 # 修改 IKAnalyzer.cfg.xml 加上一個配置字典 <entry key="starsky"></entry> # 重啟 kibana 和 es-head 和 es # 再次輸入 初心好帥 查看分詞效果 ``` ***** >[info] keyword 精準查詢 新增一個索引: ``` PUT chuxin/_doc/1 { "name":"chuxin老師是PHP講師", "desc":"chuxin老師講解的是PHP課程" } ``` ``` GET _analyze { "analyzer": "keyword", "text": "chuxin老師是PHP講師" } ``` ![](https://img.kancloud.cn/3f/5b/3f5b5b32b2a473f0c27b19a919d40647_1223x492.png) >[info] standard 分詞查詢 ``` GET _analyze { "analyzer": "standard", "text": "chuxin老師是PHP講師" } ``` ![](https://img.kancloud.cn/b6/1f/b61ff0c11cd2d1034a399e7931fffaf7_1147x809.png)
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看