# zabbix模板的自動發現規則(ldd)實現被監控項自動發現
## 自動發現規則(ldd)用途說明
在zabbix自帶的linux模板的自動發現規則中,有一個`Mounted filesystem discovery`自動發現規則,可以根據每個服務器磁盤梳理不同,自動生成相應的磁盤監控數據.
這就是自動注冊的用途,根據不同服務器上同一個監控項不同的數量,自動生成對應數量的監控
>例如5個服務器都分別啟動了tomcat多實例,但啟動的tomcat數量不相同,端口也不同,我想要監控這些端口是否down掉:
用普通的方式創建的監控模板,就得給每個服務器單獨創建,不能通用
而如果通過自動發現規則來創建,就可以只用一個模板,對應這些不同數量的tomcat進行端口檢查
## 自動發現規則使用實例
以監控java端口的自動發現為例,進行操作說明
流程:
1. 命令行獲取結果
2. 編寫zabbix腳本,輸出json格式
3. 創建zabbix客戶端key
4. 服務端驗證結果
5. web頁添加模板規則
6. web頁主機綁定模板
7. 驗證結果
### 1. 命令行獲取結果
首先在命令行,使用命令獲取想要的結果
```sh
[root@zhimai-api02 api]# ss -lntup|grep java|awk -F "[ |:]+" '{print $6}'
9090
9091
```
### 2. 編寫zabbix腳本,輸出json格式
zabbix的api需要的都是json格式的數據,這里也不例外,不管通過shell腳本還是python腳本,反正最終需要輸出json格式數據
shell腳本如下:
`vim java_port_list.sh`
```sh
#!/bin/bash
#獲取所有java服務端口,并以json格式返回
string=`ss -lntup|grep java|awk -F "[ |:]+" '{print $6}'`
count=`echo $string|wc -w`
printf '{"data":[\n'
for ((i=1;i<=$count;i++))
do
proc_array=`echo $string |cut -d ' ' -f$i`
#echo "proc"$proc_array
printf "\t{\"{#PORT}\":\"${proc_array}\"},\n"
done
date=`date +%d%H%m%s`
printf "\t{\"{#DATE}\":\"${date}\"}\n"
printf "\t]\n"
printf "}\n"
```
腳本執行結果如下:
```sh
[root@zhimai-api02 ~]# sh /etc/zabbix/zabbix_agentd.d/scripts/java_port_list.sh
{"data":[
{"{#PORT}":"9090"},
{"{#PORT}":"9091"},
{"{#DATE}":"3117101572512518"}
]
}
# 最前面的data是標準語法要求的,必須要相同,后面的key可以自己定義
```
### 3. 創建zabbix客戶端key
在`zabbix_agentd.d`目錄下,創建兩個自定義key,一個key用來自動發現,一個key用來作為具體監控項
```sh
[root@zhimai-api02 ~]# cat /etc/zabbix/zabbix_agentd.d/java_api.conf
# 獲取json列表傳遞給zabbix-server
UserParameter=discovery.api.port,sh /etc/zabbix/zabbix_agentd.d/scripts/java_port_list.sh
# 端口狀態監控key
UserParameter=api.port.status[*],ss -lntup|grep "$1"|wc -l
```
重啟zabbix客戶端,然后到服務端去測試驗證
```sh
systemctl restart zabbix-agent.service
```
### 4. 服務端驗證結果
在zabbix服務使用zabbix-get命令驗證
```sh
[root@zq-zabbix ~]# zabbix_get -s 172.17.19.13 -k discovery.api.port
{"data":[
{"{#DATE}":"3114101572502867"}
]
}
```
如上,沒有獲取到java端口信息,經查是`ss -lntup`命令中的`-p`參數,在普通用戶下是看不了其他用戶進程的,也就獲取不到數據,可以使用免密sudo方式,也可以給`ss`命令添加`s`權限,讓ss命令直接在root命令下運行
```sh
#客戶端上操作
chmod +s /usr/sbin/ss
```
再次在服務端驗證:
```sh
[root@zq-zabbix ~]# zabbix_get -s 172.17.19.13 -k discovery.api.port
{"data":[
{"{#PORT}":"9090"},
{"{#PORT}":"9091"},
{"{#DATE}":"3117101572512494"}
]
}
```
再拿獲取的端口`9090`驗證端口存活狀態`key`
```sh
[root@zq-zabbix ~]# zabbix_get -s 172.17.19.13 -k api.port.status[9090]
1
```
>如上,已經能獲取端口列表,也能驗證改端口的狀態了,可以添加規則了
### 5. web頁添加模板規則
**A 先創建模板的自動發現規則**
在web頁面創建模板,進入模板的`自動發現規則`頁,創建自動發現規則,主要注意`鍵值`和`過濾器`兩項設置
[](https://imgchr.com/i/KIBuo6)
[](https://imgchr.com/i/KIBjfO)
**B 繼續編寫自動發現規則的監控項原型和觸發器類型**
[](https://imgchr.com/i/KIrBrj)
[](https://imgchr.com/i/KIrvsH)
### 6.web頁主機綁定模板
此操作過于簡單,略
### 7. 驗證結果
[](https://imgchr.com/i/KoFkyq)
## 過程中遇到的問題:
1. json格式錯誤導致自動發現不了
問題:自動發現不了,zabbix-server端日志提示`became not supported`
```sh
discovery rule "xxx:discovery.api.port" became not supported: Value should be a JSON object
```
原因:這個問題經過檢查,是輸出的內容不是json格式導致的
2. 有多個端口/服務,但只能自動發現一個端口/服務
原因:也是由于json格式導致的
正確的應該每個key-value鍵值對都要用一堆大括號包起來
但輸出的json格式中,卻將所有的鍵值對只用了一個大括號包起來,如下
```json
#正確
{"data":[
{"{#PORT}":"9090"},
{"{#PORT}":"9091"}
]
}
#錯誤
{"data":[{
"{#PORT}":"9090",
"{#PORT}":"9091"
}]
}
```
3. 客戶端執行腳本正常,服務端用zabbix-get獲取數據不正確
是由于使用的命令,如`ss`,在普通用戶模式下,是沒有權限獲取如進程信息之類數據導致的
解決辦法:可以使用visudo給zabbix用戶授權某些命令免密碼執行,也可以給這些命令增加`s`權限,如
```sh
chmod +s /usr/sbin/ss
#增加操作一定要慎重,個別可以修改數據的命令,一定不要添加s權限
```
- shell編程
- 變量1-規范-環境變量-普通變量
- 變量2-位置-狀態-特殊變量
- 變量3-變量子串
- 變量4-變量賦值三種方法
- 變量5-數組相關
- 計算1-數值計算命令和案例
- 計算2-expr命令舉例
- 計算3-條件表達式和各種操作符
- 計算4-條件表達式和操作符案例
- 循環1-函數的概念與作用
- 循環2-if與case語法
- 循環3-while語法
- 循環4-for循環
- 其他1-判斷傳入的參數為0或整數的多種思路
- 其他2-while+read按行讀取文件
- 其他3-給輸出內容加顏色
- 其他4-shell腳本后臺運行知識
- 其他5-6種產生隨機數的方法
- 其他6-break,continue,exit,return區別
- if語法案例
- case語法案例
- 函數語法案例
- WEB服務軟件
- nginx相關
- 01-簡介與對比
- 02-日志說明
- 03-配置文件和虛擬主機
- 04-location模塊和訪問控制
- 05-status狀態模塊
- 06-rewrite重寫模塊
- 07-負載均衡和反向代理
- 08-反向代理監控虛擬IP地址
- nginx與https自簽發證書
- php-nginx-mysql聯動
- Nginx編譯安裝[1.12.2]
- 案例
- 不同客戶端顯示不同信息
- 上傳和訪問資源池分離
- 配置文件
- nginx轉發解決跨域問題
- 反向代理典型配置
- php相關
- C6編譯安裝php.5.5.32
- C7編譯php5
- C6/7yum安裝PHP指定版本
- tomcxat相關
- 01-jkd與tomcat部署
- 02-目錄-日志-配置文件介紹
- 03-tomcat配置文件詳解
- 04-tomcat多實例和集群
- 05-tomcat監控和調優
- 06-Tomcat安全管理規范
- show-busy-java-threads腳本
- LVS與keepalived
- keepalived
- keepalived介紹和部署
- keepalived腦裂控制
- keepalived與nginx聯動-監控
- keepalived與nginx聯動-雙主
- LVS負載均衡
- 01-LVS相關概念
- 02-LVS部署實踐-ipvsadm
- 03-LVS+keepalived部署實踐
- 04-LVS的一些問題和思路
- mysql數據庫
- 配置和腳本
- 5.6基礎my.cnf
- 5.7基礎my.cnf
- 多種安裝方式
- 詳細用法和命令
- 高可用和讀寫分離
- 優化和壓測
- docker與k8s
- docker容器技術
- 1-容器和docker基礎知識
- 2-docker軟件部署
- 3-docker基礎操作命令
- 4-數據的持久化和共享互連
- 5-docker鏡像構建
- 6-docker鏡像倉庫和標簽tag
- 7-docker容器的網絡通信
- 9-企業級私有倉庫harbor
- docker單機編排技術
- 1-docker-compose快速入門
- 2-compose命令和yaml模板
- 3-docker-compose命令
- 4-compose/stack/swarm集群
- 5-命令補全和資源限制
- k8s容器編排工具
- mvn的dockerfile打包插件
- openstack與KVM
- kvm虛擬化
- 1-KVM基礎與快速部署
- 2-KVM日常管理命令
- 3-磁盤格式-快照和克隆
- 4-橋接網絡-熱添加與熱遷移
- openstack云平臺
- 1-openstack基礎知識
- 2-搭建環境準備
- 3-keystone認證服務部署
- 4-glance鏡像服務部署
- 5-nova計算服務部署
- 6-neutron網絡服務部署
- 7-horizon儀表盤服務部署
- 8-啟動openstack實例
- 9-添加計算節點流程
- 10-遷移glance鏡像服務
- 11-cinder塊存儲服務部署
- 12-cinder服務支持NFS存儲
- 13-新增一個網絡類型
- 14-云主機冷遷移前提設置
- 15-VXALN網絡類型配置
- 未分類雜項
- 部署環境準備
- 監控
- https證書
- python3.6編譯安裝
- 編譯安裝curl[7.59.0]
- 修改Redhat7默認yum源為阿里云
- 升級glibc至2.17
- rabbitmq安裝和啟動
- rabbitmq多實例部署[命令方式]
- mysql5.6基礎my.cnf
- centos6[upstart]/7[systemd]創建守護進程
- Java啟動參數詳解
- 權限控制方案
- app發包倉庫
- 版本發布流程
- elk日志系統
- rsyslog日志統一收集系統
- ELK系統介紹及YUM源
- 快速安裝部署ELK
- Filebeat模塊講解
- logstash的in/output模塊
- logstash的filter模塊
- Elasticsearch相關操作
- ES6.X集群及head插件
- elk收集nginx日志(json格式)
- kibana說明-漢化-安全
- ES安裝IK分詞器
- zabbix監控
- zabbix自動注冊模板實現監控項自動注冊
- hadoop大數據集群
- hadoop部署
- https證書
- certbot網站
- jenkins與CI/CD
- 01-Jenkins部署和初始化
- 02-Jenkins三種插件安裝方式
- 03-Jenkins目錄說明和備份
- 04-git與gitlab項目準備
- 05-構建自由風格項目和相關知識
- 06-構建html靜態網頁項目
- 07-gitlab自動觸發項目構建
- 08-pipelinel流水線構建項目
- 09-用maven構建java項目
- iptables
- 01-知識概念
- 02-常規命令實戰
- 03-企業應用模板
- 04-企業應用模板[1鍵腳本]
- 05-企業案例-共享上網和端口映射
- SSH與VPN
- 常用VPN
- VPN概念和常用軟件
- VPN之PPTP部署[6.x][7.x]
- 使用docker部署softether vpn
- softEther-vpn靜態路由表推送
- SSH服務
- SSH介紹和部署
- SSH批量分發腳本
- 開啟sftp日志并限制sftp訪問目錄
- sftp賬號權限分離-開發平臺
- ssh配置文件最佳實踐
- git-github-gitlab
- git安裝部署
- git詳細用法
- github使用說明
- gitlab部署和使用
- 緩存數據庫
- zookeeper草稿
- mongodb數據庫系列
- mongodb基本使用
- mongodb常用命令
- MongoDB配置文件詳解
- mongodb用戶認證管理
- mongodb備份與恢復
- mongodb復制集群
- mongodb分片集群
- docker部署mongodb
- memcached
- memcached基本概念
- memcached部署[6.x][7.x]
- memcached參數和命令
- memcached狀態和監控
- 會話共享和集群-優化-持久化
- memcached客戶端-web端
- PHP測試代碼
- redis
- 1安裝和使用
- 2持久化-事務-鎖
- 3數據類型和發布訂閱
- 4主從復制和高可用
- 5redis集群
- 6工具-安全-pythonl連接
- redis配置文件詳解
- 磁盤管理和存儲
- Glusterfs分布式存儲
- GlusterFS 4.1 版本選擇和部署
- Glusterfs常用命令整理
- GlusterFS 4.1 深入使用
- NFS文件存儲
- NFS操作和部署
- NFS文件系統-掛載和優化
- sersync與inotify
- rsync同步服務
- rsyncd.conf
- rsync操作和部署文檔
- rsync常見錯誤處理
- inotify+sersync同步服務
- inotify安裝部署
- inotify最佳腳本
- sersync安裝部署
- 時間服務ntp和chrony
- 時間服務器部署
- 修改utc時間為cst時間
- 批量操作與自動化
- cobbler與kickstart
- KS+COBBLER文件
- cobbler部署[7.x]
- kickstart部署[7.x]
- kickstar-KS文件和語法解析
- kickstart-PXE配置文件解析
- 自動化之ansible
- ansible部署和實踐
- ansible劇本編寫規范
- 配置文件示例
- 內網DNS服務
- 壓力測試
- 壓測工具-qpefr測試帶寬和延時