參考文章:
[Filebeat 模塊與配置](https://www.cnblogs.com/cjsblog/p/9495024.html)
[開始使用Filebeat](https://www.cnblogs.com/cjsblog/p/9445792.html)
[https://www.cnblogs.com/cjsblog/p/9517060.html](https://www.cnblogs.com/cjsblog/p/9517060.html)
[TOC]
# filebeat配置文件模塊
filebeat配置文件主要分如下三塊
| 模塊 | 模塊用途 |
| --- | --- |
| modules | 自帶的常用日志格式的模塊 |
| input | 日志輸入模塊 |
| output | 日志輸出模塊 |
## A modules模塊(nginx模塊為例)
Filebeat提供了一組預先構建的模塊,可以使用這些模塊快速實現并部署一個日志監控解決方案,,支持常見的日志格式,如Nginx、Apache2和MySQL等。
### **1 nginx模塊說明**
nginx模塊解析Nginx創建的access和error日志,當運行模塊的時候,它在底層執行一些任務:
* 設置默認的日志文件路徑
* 確保將每個多行日志事件作為單個事件發送
* 使用ingest節點解析和處理日志行,將數據塑造成適合在Kibana中可視化的結構
* 部署顯示日志數據的dashboards
>這個模塊需要**ingest-user-agent**和**ingest-geoip**兩個Elasticsearch插件
### **2 設置并運行模塊**
第1步:配置文件啟用modules和指定output
output一定要指定,至于是輸出到reids,還是logstash或是es,就看具體需要了
```sh
[root@file_redis ~]# cat /etc/filebeat/filebeat.yml
filebeat.config.modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: false
output.redis:
hosts: ["10.0.0.11"]
port: 6379
password : 'abcd1234e'
key: "filebeat-1101"
db: 3
timeout: 5
```
第2步:加載nginx模塊并重啟filebeat
```
filebeat modules enable nginx
systemctl restart filebeat.service
```
第3步:訪問nginx并查看redis第3個庫是否有日志產生
```
curl 127.0.0.1
redis-cli -h 10.0.0.11 -a abcd1234e
10.0.0.11:6379> select 3
OK
10.0.0.11:6379[3]> KEYS *
1) "filebeat-1101"
10.0.0.11:6379[3]> lrange filebeat-1101 0 1
...很多數據,省略顯示...
```
### **3 重新指定模塊中的變量**
通過在配置文件中指定變量設置,可以覆蓋模塊文件中的默認設置,如nginx日志路徑:
```
- module: nginx
access:
enabled: true
var.paths: ["/path/to/log/nginx/access.log*"]
error:
enabled: true
var.paths: ["/path/to/log/nginx/error.log*"]
```
其它模塊配置大同小異,不再贅述,更多請參考??[filebeat日志模塊](https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-modules.html)
## B input日志輸入模塊
除了使用自帶的模塊讀入日志數據外,更多的是自己寫input模塊按自己的需要讀取日志,一個配置文件中,可以指定多個日志輸入源:
~~~
filebeat.inputs:
- type: log
paths:
- /var/log/system.log
- /var/log/wifi.log
- type: log
paths:
- "/var/log/apache2/*"
~~~
### **1 排除行和包含行**
默認情況下,沒有行被刪除,所有的行都會被導出。空行被忽略。
* exclude_lines 排除行
一組正則表達式,用于匹配想要排除的行。Filebeat會丟棄匹配的行。
下面的例子配置Filebeat刪除以DBG開頭的行:
~~~
filebeat.inputs:
- type: log
...
exclude_lines: ['^DBG']
~~~
* include_lines 包含行
一組正則表達式,用于匹配想要包含的行。Filebeat只會導出那些匹配這組正則表達式的行。
下面是一個例子,配置Filebeat導出以ERR或者WARN開頭的行:
~~~
filebeat.inputs:
- type: log
...
include_lines: ['^ERR', '^WARN']
~~~
* 排除行和包含航同時被定義
如果 include\_lines 和 exclude\_lines 都被定義了,那么Filebeat先執行 include\_lines 后執行 exclude\_lines,而與這兩個選項在配置文件中被定義的順序沒有關系。
下面的例子導出那些除了以DGB開頭的所有包含sometext的行:
~~~sh
filebeat.inputs:
- type: log
...
include_lines: ['sometext']
exclude_lines: ['^DBG']
~~~
### **2 json格式日志**
這些選項使得Filebeat將日志作為JSON消息來解析。例如:
~~~sh
json.keys_under_root: true
json.add_error_key: true
json.message_key: log
~~~
為了啟用JSON解析模式,必須至少指定下列設置項中的一個:
* keys\_under\_root
默認情況下,解碼后的JSON被放置在一個以"json"為key的輸出文檔中。
如果啟用這個設置,那么這個key在文檔中被復制為頂級。默認是false。
* overwrite\_keys
如果keys\_under\_root被啟用,那么在key沖突的情況下,解碼后的JSON對象將覆蓋Filebeat正常的字段
* add\_error\_key
如果啟用,則當JSON反編排出現錯誤的時候Filebeat添加 "error.message" 和 "error.type: json"兩個key
* message\_key
可選的配置,在應用行過濾和多行設置的時候指定一個JSON key。
指定的這個key必須在JSON對象中是頂級的,而且其關聯的值必須是一個字符串
* ignore\_decoding\_error
可選的配置,指定是否JSON解碼錯誤應該被記錄到日志中。默認是false。
### **3 multiline多行日志處理**
典型的java錯誤日志,都是由很多行組成的,如果按單行收集,就不能正確的處理日志,需要用到多行處理功能,需要用到一下設置.
* **multiline.pattern**
指定用于匹配多行的正則表達式
* **multiline.negate**
定義模式是否被否定。默認false。
* **multiline.match**
指定Filebeat如何把多行合并成一個事件。可選的值是**after**或者**before**
* **multiline.flush\_pattern**
指定一個正則表達式,多行將從內存刷新到磁盤。
* **multiline.max\_lines**
可以合并成一個事件的最大行數。如果一個多行消息包含的行數超過max\_lines,則超過的行被丟棄。默認是500。
案例1:簡單的java多行日志
~~~sh
Exception in thread "main" java.lang.NullPointerException
at com.example.myproject.Book.getTitle(Book.java:16)
at com.example.myproject.Author.getBookTitles(Author.java:25)
at com.example.myproject.Bootstrap.main(Bootstrap.java:14)
~~~
為了把這些行合并成單個事件,用寫了多行配置:
~~~sh
multiline.pattern: '^[[:space:]]'
multiline.negate: false
multiline.match: after
~~~
>這個配置將任意以空格開始的行合并到前一行
案例2:更復雜的例子
~~~java
Exception in thread "main" java.lang.IllegalStateException: A book has a null property
at com.example.myproject.Author.getBookIds(Author.java:38)
at com.example.myproject.Bootstrap.main(Bootstrap.java:14)
Caused by: java.lang.NullPointerException
at com.example.myproject.Book.getId(Book.java:22)
at com.example.myproject.Author.getBookIds(Author.java:35)
... 1 more
~~~
為了合并這個,用下面的配置:
~~~sh
multiline.pattern: '^[[:space:]]+(at|\.{3})\b|^Caused by:'
multiline.negate: false
multiline.match: after
~~~
> 在這個例子中,模式匹配下列行:
> * 以空格開頭,后面跟 at 或者 ... 的行
> * 以 Caused by: 開頭的行
## C output輸出模塊
### 1. **配置Elasticsearch output**??
當指定Elasticsearch作為output時,Filebeat通過Elasticsearch提供的HTTP API向其發送數據。例如:
~~~sh
output.elasticsearch:
hosts: ["https://localhost:9200"]
~~~
如果es開啟了認證,則需要添加如下配置
~~~sh
output.elasticsearch:
hosts: ["https://localhost:9200"]
username: "filebeat_internal"
password: "YOUR_PASSWORD"
~~~
### 2. **index和indices指定索引名**
索引名字默認是"filebeat-%{\[beat.version\]}-%{+yyyy.MM.dd}"(例如,"filebeat-6.3.2-2017.04.26")。
如果想改變這個設置,需要配置 setup.template.name 和 setup.template.pattern 選項。
如果想要根據日志中不同的內容行,生產不同的索引,就需要用到`indices`的條件格式
~~~sh
output.elasticsearch:
hosts: ["http://localhost:9200"]
index: "logs-%{[beat.version]}-%{+yyyy.MM.dd}"
indices:
- index: "critical-%{[beat.version]}-%{+yyyy.MM.dd}"
when.contains:
message: "CRITICAL"
- index: "error-%{[beat.version]}-%{+yyyy.MM.dd}"
when.contains:
message: "ERR"
~~~
### 3. **配置Logstash output**
~~~
output.logstash:
hosts: ["127.0.0.1:5044"]
~~~
上面是配置Filebeat輸出到Logstash,那么Logstash本身也可以有輸出配置,例如:
~~~
input {
beats {
port => 5044
}
}
output {
elasticsearch {
hosts => ["http://localhost:9200"]
index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
}
}
~~~
### 4. **配置redis output**
~~~
output.redis:
hosts: ["10.0.0.11"]
port: 6379
password : 'abcd1234e'
key: "filebeat-1101"
db: 3
timeout: 5
~~~
- shell編程
- 變量1-規范-環境變量-普通變量
- 變量2-位置-狀態-特殊變量
- 變量3-變量子串
- 變量4-變量賦值三種方法
- 變量5-數組相關
- 計算1-數值計算命令和案例
- 計算2-expr命令舉例
- 計算3-條件表達式和各種操作符
- 計算4-條件表達式和操作符案例
- 循環1-函數的概念與作用
- 循環2-if與case語法
- 循環3-while語法
- 循環4-for循環
- 其他1-判斷傳入的參數為0或整數的多種思路
- 其他2-while+read按行讀取文件
- 其他3-給輸出內容加顏色
- 其他4-shell腳本后臺運行知識
- 其他5-6種產生隨機數的方法
- 其他6-break,continue,exit,return區別
- if語法案例
- case語法案例
- 函數語法案例
- WEB服務軟件
- nginx相關
- 01-簡介與對比
- 02-日志說明
- 03-配置文件和虛擬主機
- 04-location模塊和訪問控制
- 05-status狀態模塊
- 06-rewrite重寫模塊
- 07-負載均衡和反向代理
- 08-反向代理監控虛擬IP地址
- nginx與https自簽發證書
- php-nginx-mysql聯動
- Nginx編譯安裝[1.12.2]
- 案例
- 不同客戶端顯示不同信息
- 上傳和訪問資源池分離
- 配置文件
- nginx轉發解決跨域問題
- 反向代理典型配置
- php相關
- C6編譯安裝php.5.5.32
- C7編譯php5
- C6/7yum安裝PHP指定版本
- tomcxat相關
- 01-jkd與tomcat部署
- 02-目錄-日志-配置文件介紹
- 03-tomcat配置文件詳解
- 04-tomcat多實例和集群
- 05-tomcat監控和調優
- 06-Tomcat安全管理規范
- show-busy-java-threads腳本
- LVS與keepalived
- keepalived
- keepalived介紹和部署
- keepalived腦裂控制
- keepalived與nginx聯動-監控
- keepalived與nginx聯動-雙主
- LVS負載均衡
- 01-LVS相關概念
- 02-LVS部署實踐-ipvsadm
- 03-LVS+keepalived部署實踐
- 04-LVS的一些問題和思路
- mysql數據庫
- 配置和腳本
- 5.6基礎my.cnf
- 5.7基礎my.cnf
- 多種安裝方式
- 詳細用法和命令
- 高可用和讀寫分離
- 優化和壓測
- docker與k8s
- docker容器技術
- 1-容器和docker基礎知識
- 2-docker軟件部署
- 3-docker基礎操作命令
- 4-數據的持久化和共享互連
- 5-docker鏡像構建
- 6-docker鏡像倉庫和標簽tag
- 7-docker容器的網絡通信
- 9-企業級私有倉庫harbor
- docker單機編排技術
- 1-docker-compose快速入門
- 2-compose命令和yaml模板
- 3-docker-compose命令
- 4-compose/stack/swarm集群
- 5-命令補全和資源限制
- k8s容器編排工具
- mvn的dockerfile打包插件
- openstack與KVM
- kvm虛擬化
- 1-KVM基礎與快速部署
- 2-KVM日常管理命令
- 3-磁盤格式-快照和克隆
- 4-橋接網絡-熱添加與熱遷移
- openstack云平臺
- 1-openstack基礎知識
- 2-搭建環境準備
- 3-keystone認證服務部署
- 4-glance鏡像服務部署
- 5-nova計算服務部署
- 6-neutron網絡服務部署
- 7-horizon儀表盤服務部署
- 8-啟動openstack實例
- 9-添加計算節點流程
- 10-遷移glance鏡像服務
- 11-cinder塊存儲服務部署
- 12-cinder服務支持NFS存儲
- 13-新增一個網絡類型
- 14-云主機冷遷移前提設置
- 15-VXALN網絡類型配置
- 未分類雜項
- 部署環境準備
- 監控
- https證書
- python3.6編譯安裝
- 編譯安裝curl[7.59.0]
- 修改Redhat7默認yum源為阿里云
- 升級glibc至2.17
- rabbitmq安裝和啟動
- rabbitmq多實例部署[命令方式]
- mysql5.6基礎my.cnf
- centos6[upstart]/7[systemd]創建守護進程
- Java啟動參數詳解
- 權限控制方案
- app發包倉庫
- 版本發布流程
- elk日志系統
- rsyslog日志統一收集系統
- ELK系統介紹及YUM源
- 快速安裝部署ELK
- Filebeat模塊講解
- logstash的in/output模塊
- logstash的filter模塊
- Elasticsearch相關操作
- ES6.X集群及head插件
- elk收集nginx日志(json格式)
- kibana說明-漢化-安全
- ES安裝IK分詞器
- zabbix監控
- zabbix自動注冊模板實現監控項自動注冊
- hadoop大數據集群
- hadoop部署
- https證書
- certbot網站
- jenkins與CI/CD
- 01-Jenkins部署和初始化
- 02-Jenkins三種插件安裝方式
- 03-Jenkins目錄說明和備份
- 04-git與gitlab項目準備
- 05-構建自由風格項目和相關知識
- 06-構建html靜態網頁項目
- 07-gitlab自動觸發項目構建
- 08-pipelinel流水線構建項目
- 09-用maven構建java項目
- iptables
- 01-知識概念
- 02-常規命令實戰
- 03-企業應用模板
- 04-企業應用模板[1鍵腳本]
- 05-企業案例-共享上網和端口映射
- SSH與VPN
- 常用VPN
- VPN概念和常用軟件
- VPN之PPTP部署[6.x][7.x]
- 使用docker部署softether vpn
- softEther-vpn靜態路由表推送
- SSH服務
- SSH介紹和部署
- SSH批量分發腳本
- 開啟sftp日志并限制sftp訪問目錄
- sftp賬號權限分離-開發平臺
- ssh配置文件最佳實踐
- git-github-gitlab
- git安裝部署
- git詳細用法
- github使用說明
- gitlab部署和使用
- 緩存數據庫
- zookeeper草稿
- mongodb數據庫系列
- mongodb基本使用
- mongodb常用命令
- MongoDB配置文件詳解
- mongodb用戶認證管理
- mongodb備份與恢復
- mongodb復制集群
- mongodb分片集群
- docker部署mongodb
- memcached
- memcached基本概念
- memcached部署[6.x][7.x]
- memcached參數和命令
- memcached狀態和監控
- 會話共享和集群-優化-持久化
- memcached客戶端-web端
- PHP測試代碼
- redis
- 1安裝和使用
- 2持久化-事務-鎖
- 3數據類型和發布訂閱
- 4主從復制和高可用
- 5redis集群
- 6工具-安全-pythonl連接
- redis配置文件詳解
- 磁盤管理和存儲
- Glusterfs分布式存儲
- GlusterFS 4.1 版本選擇和部署
- Glusterfs常用命令整理
- GlusterFS 4.1 深入使用
- NFS文件存儲
- NFS操作和部署
- NFS文件系統-掛載和優化
- sersync與inotify
- rsync同步服務
- rsyncd.conf
- rsync操作和部署文檔
- rsync常見錯誤處理
- inotify+sersync同步服務
- inotify安裝部署
- inotify最佳腳本
- sersync安裝部署
- 時間服務ntp和chrony
- 時間服務器部署
- 修改utc時間為cst時間
- 批量操作與自動化
- cobbler與kickstart
- KS+COBBLER文件
- cobbler部署[7.x]
- kickstart部署[7.x]
- kickstar-KS文件和語法解析
- kickstart-PXE配置文件解析
- 自動化之ansible
- ansible部署和實踐
- ansible劇本編寫規范
- 配置文件示例
- 內網DNS服務
- 壓力測試
- 壓測工具-qpefr測試帶寬和延時