原文地址:https://developer.piwik.org/guides/data-model
> 此文中的內容和《Piwik數據庫模式(一)》中相互參照
### 日志數據
HTTP跟蹤API(即Piwik\Tracker組件)接收原始分析數據,我們稱之為日志數據。
有四種類型的日志數據:
- 訪問
- 動作類型
- 轉換
- 電子商務項目
歸檔過程將日志數據聚合到歸檔數據中。
日志數據從不直接用于Piwik報告,而是使用歸檔數據。唯一的例外是使用日志數據生成實時報告的Live插件。
##### 持久化
日志數據在PHP中表示為Piwik\Tracker\Visit對象,并存儲到下表中:
log_visit 每次訪問包含一個條目(返回訪問者)
log_action 包含網站上所有可能采取的行動(例如,唯一網址,網頁標題,下載網址...)
log_link_visit_action 每個行動的訪客包含一個條目(頁面瀏覽,...)
log_conversion 包含訪問期間發生的轉化(與目標相符的操作)
log_conversion_item 包含電子商務轉換項目
這些表(及其相關的PHP實體)的內容將在“ 數據庫架構”指南中進行更詳細的介紹。
### 存檔過程
日志數據不能直接用于最終用戶報告,因為它需要在每次需要報告時處理大量的數據。
為了解決這個問題,歸檔過程將日志數據聚合到歸檔數據中。然后使用歸檔數據構建報告。
例
我們舉一個例子,在一天內收到1000頁瀏覽量的網站。該日志數據將與其他信息,例如,沿著這1000個的事件列表:
```shell
URL Time ...
/homepage 17:00:19 ...
/about 17:01:10 ...
/homepage 17:05:30 ...
/categories 17:06:14 ...
/homepage 17:10:03 ...
...
```
該歸檔過程匯總這些原始數據到歸檔數據。
例如,要構建每頁視圖數量的報告(查看最受歡迎的頁面),歸檔將列出所有頁面并總計每個頁面的視圖數量:
```shell
URL Page views
/homepage 205
/categories 67
/about 5
...
```
該數據是歸檔數據。
雖然預計算檔案數據對于1000頁瀏覽量來說似乎是多余的,但是在處理較高數據量時并不是這樣。
##### 什么時候?
默認情況下,歸檔數據的計算和緩存點播。當請求具體報告時,Piwik將檢查所需的存檔數據是否存在,如果不存在則生成。
預歸檔
當跟蹤網站流量很大時,按需歸檔可能需要太多時間。在這種情況下,必須禁用存檔歸檔,并且預先歸檔需要在預定時間內在后臺運行。
可以使用core:archiveconsole命令為每個站點和期間(自定義日期范圍除外)運行預歸檔:
```shell
$ ./console core:archive
```
通常的設置是使用固定間隔運行該命令cron。
該命令將記住上次執行時,只有存在新的訪問時才會存檔網站。
##### 怎么樣?
日志數據被匯總到每個的歸檔數據中:
- 現場
- 期間:日,周,月,年或自定義日期范圍(自定義日期范圍不能預先歸檔)
- 分割
存檔邏輯(即聚合日志數據的方式)由插件定義。由插件定義的所有報告都將歸檔而不是單獨存檔。
如果查詢中沒有分段,找不到數據,則每個插件的每個報告將一次生成并緩存。如果提供了一個段,則將生成和緩存屬于與請求的數據相同的插件的報告。
期間聚合
歸檔數據的計算方式根據期間類型不同:
- “日”期是日志數據的聚合
- “周”,“月”,“年”和自定義日期范圍是“日”報告的匯總
例如,通過聚合一周中的7天的歸檔數據創建一周的歸檔數據。這比聚合日志數據要快得多。
##### 插件存檔
要歸檔報表和指標的插件定義了一個Archiver擴展的類Piwik\Plugin\Archiver。此類將在歸檔過程中自動檢測并調用。
日志數據聚合由LogAggregator類處理。歸檔數據聚合由ArchiveProcessor::aggregateDataTableRecords()and ArchiveProcessor::aggregateNumericMetrics()方法處理。
插件可以訪問LogAggregator和ArchiveProcessor實例Piwik\Plugin\Archiver。
要了解有關Piwik的MySQL后端如何實現聚合的更多信息,請閱讀數據庫模式。
##### 持久存檔數據
存檔數據使用ArchiveProcessor。
使用度量標準插入insertNumericRecord()。
報告首先使用序列化DataTable::getSerialized(),然后插入ArchiveProcessor::insertBlobRecord():
```php
// insert a numeric metric
$myFancyMetric = // ... calculate the metric value ...
$archiveProcessor->insertNumericRecord('MyPlugin_myFancyMetric', $myFancyMetric);
// insert a record (with all of its subtables)
$maxRowsInTable = Config::getInstance()->General['datatable_archiving_maximum_rows_standard'];j
$dataTable = // ... build by aggregating visits ...
$serializedData = $dataTable->getSerialized(
$maxRowsInTable,
$maxRowsInSubtable = $maxRowsInTable,
$columnToSortBy = Metrics::INDEX_NB_VISITS
);
$archiveProcessor->insertBlobRecords('MyPlugin_myFancyReport', $serializedData);
```
持續的報告和指標由網站ID,期間和分段索引。歸檔的日期和時間也附在數據上。要了解MySQL如何完成此細節,請參閱數據庫架構。
##### 報告與記錄
當報告被歸檔時,它被稱為不是報告的記錄。我們有區別,因為有時可以從一個記錄生成多個報告。
例如,UserSettings插件使用一個記錄來保存訪問者的瀏覽器詳細信息。此記錄用于生成UserSettings.getBrowserVersion和UserSettings.getBrowser報告。第二份報告只是處理第一份報告。該插件可以歸檔這兩個報告,但是這將大大浪費空間,考慮到新的報告將被緩存為每個網站/期間/段組合。
##### 記錄存儲準則
必須注意盡可能少的存放記錄。在將記錄作為歸檔數據插入之前,請務必遵循以下準則:
記錄不應與字符串列名一起存儲。相反,它們應該被替換為整數列ID(有關現有列表的列表,請參閱Metrics)。
可以使用現有數據添加的元數據不應與報告一起存儲。相反,當將記錄轉換為報告時,應將其添加到API方法中。
### 歸檔數據
歸檔數據是在創建歸檔過程中通過匯總日志數據。
Piwik聚合并持續存在兩種類型的存檔數據:
```shell
度量,它們是單個數值
報告,是二維數組的值
```
報告通常包含指標值,但它們也可以包含其他數據(額外地或代替度量值)。
報告和指標由插件定義,允許任何插件擴展Piwik分析的數據。然而,有幾個稱為核心指標的指標,由Piwik Core定義。
##### 子集參數
報告和指標提供關于一組事物的分析數據。該集合由三個約束定義:
```shell
一個網站ID
一段時間
一段
```
該網站的ID選擇被跟蹤特定網站的訪問。該ID在具有idSitequery參數的所有HTTP請求中指定。
的期間,選擇被跟蹤的特定日期范圍內的訪問。所有HTTP請求中指定的時間段date與period查詢參數。
該段根據使用訪問屬性的布爾表達式選擇訪問。它在所有HTTP請求中由segmentquery參數指定,可用于選擇幾乎任何可能的訪問子集。
Analytics(分析)參數作為元數據存儲在報表中,這意味著它們作為DataTable元數據存儲。
##### 度量
核心指標
核心指標是不是由插件定義的,而是Piwik Core。
分析訪問次數,操作類型或轉化次數的新報告應包含這些指標。
##### 訪問指標
一組訪問的核心指標:
|名稱 | 公制編號 | 描述 |
|:------------ :| :------------ :|
|訪問 | nb_visits | 跟蹤訪問次數 一次訪問是一系列事件,每次事件發生不超過30分鐘。 |
|獨特的訪客 | nb_uniq_visitors | 唯一訪問來源的數量。訪問來源是一個導致訪問的實體。 |
|操作 | nb_actions | 跟蹤的動作數量。一個行動是Piwik跟蹤的一個事件。 |
|最大行動 | max_actions | 一次訪問中發生的最大操作次數。 |
|總訪問長度 | sum_visit_length | 每次訪問的總和時間。 |
|反彈計數 | bounce_count | 僅由一個動作組成的訪問次數。 |
|轉換訪問 | nb_visits_converted | 導致至少一次轉化的訪問次數。包含網站每個目標的轉化。 |
|轉換 | nb_conversions | 此次訪問跟蹤的轉化次數。包含網站每個目標的轉化。 |
|收入 | revenue | 這些訪問產生的總收入。 包括網站的每個目標的收入以及電子商務收入。 |
##### 行動指標
單一動作類型的核心指標:
|名稱|公制編號|描述|
| :------------ | :------------ |
|點擊|nb_hits|這個動作曾經完成的次數。|
|總和花費時間|sum_time_spent|用戶花費這個操作的總時間。|
|總和頁面生成時間|sum_time_generation|服務器花費這項操作的總時間。|
|點擊與生成時間|nb_hits_with_time_generation|包含生成時間信息的命中數。|
|最小頁面生成時間|min_time_generation|服務器為此操作服務的最短時間。|
|最大頁面生成時間|max_time_generation|服務器花費此操作的最長時間。|
|獨特出境游客|exit_nb_uniq_visitors|在此行動之后退出網站的唯一身份訪問者人數。|
|退出訪問|exit_nb_visits|通過此操作結束的總訪問次數。|
|獨特的入場訪客|entry_nb_uniq_visitors|通過此操作開始訪問的唯一身份訪問者總數。|
|入場訪問|entry_nb_visits|以此操作開始的總訪問次數。|
|進入動作|entry_nb_actions||
|入場和訪問長度|entry_sum_visit_length|每次入場訪問的總和經過時間。|
|入場反彈計數|entry_bounce_count|由這個動作組成的訪問次數,沒有其他。|
|點擊搜索|nb_hits_following_search|在網站搜索后執行此操作的次數。|
##### 電子商務指標
針對一組訪問記錄的一組電子商務轉換(所有訂單或所有已放棄購物車)的核心指標:
|名稱|公制編號|描述|
| :------------ | :------------ |
|收入小計|revenue_subtotal|作為這些訂單或棄車的一部分的每個項目的總成本。|
|稅收收入|revenue_tax|適用于這些訂單/棄車的總稅額。|
|收入運費|revenue_shipping|運送到這些訂單/廢棄車的運輸總量。|
|收入折扣|revenue_discount|這些訂單/棄車的折扣總額。|
|電子商務計數|items|這些訂單/棄車的物品總數。
##### 目標指標
一組訪問的核心指標和網站的一個目標:
|名稱|公制編號|描述|
| :------------ | :------------ |
|目標轉換|goal_<idGoal>_nb_conversions|針對特定目標跟蹤此次訪問的轉化。|
|目標收入|goal_<idGoal>_revenue|特定目標的轉化所產生的總收入。|
注意:<idGoal>應替換為目標的ID。
目標具體指標存儲在goals序列化報告列中的數據庫中。該列包含一個PHP數組,將目標ID與目標特定度量值的數組進行映射。這些值被設置為具有上述由AddColumnsProcessedMetricsGoal DataTable過濾器描述的度量名稱的普通列值。
##### 已處理的指標
為了歸檔和數據庫大小的效率,一些指標不存儲在數據庫中。而是在需要時使用其他指標來計算。這些指標稱為處理指標。
以下是使用核心指標計算的已處理指標列表。分析訪問次數,操作類型或轉化次數的新報告應盡可能添加這些指標。
注意:以下列表中會顯示多個已處理的指標。這些指標根據他們所在的報告有不同的含義。
一組訪問的處理指標:
|名稱|公制編號|描述|
| :------------ | :------------ |
|兌換率|conversion_rate|至少有一次轉化的訪問百分比。|
|每次訪問行動|nb_actions_per_visit|單次訪問的平均動作次數。|
|平均停機時間|avg_time_on_site|平均每次訪問所花費的時間(秒)。|
|跳出率|bounce_rate|導致反彈的訪問百分比。|
單個操作類型的已處理指標:
|名稱|公制編號|描述|
| :------------ | :------------ |
|平均生成時間|avg_time_generation|服務器提供此操作所需的平均時間。|
|瀏覽的平均搜索結果頁數|nb_pages_per_search|在網站搜索后查看的搜索結果頁的平均數量。僅適用于網站搜索關鍵字和網站搜索類別。|
|平均時間頁|avg_time_on_page|用戶花費這個時間的平均時間。|
|入場跳出率|bounce_rate|所有訪問的百分比組成的這個動作,沒有其他。|
|退出率|exit_rate|以此動作結束的所有訪問的百分比。|
針對一組訪問記錄的電子商務訂單集的處理指標:
|名稱|公制編號|描述|
| :------------ | :------------
|平均訂單收入|avg_order_revenue|每個訂單的平均收入。|
一組訂單或廢棄購物車中電子商務集合的處理指標:
|名稱|公制編號|描述|
| :------------ | :------------
|平均價格|avg_price|每個項目的平均價格。|
|平均數量|avg_quantity|訂單/已放棄購物車中每個商品的平均數量。|
|產品轉化率|conversion_rate|包含此項目的訂單/棄車的百分比。|
以下是一個特定于一個網站的一個目標的已處理指標列表:
|名稱|公制編號|描述|
| :------------ | :------------
|每次訪問平均收入|goal_<idGoal>_revenue_per_visit|為此目標每次訪問所產生的平均收入金額。|
##### 命名約定
由插件計算和持久化的度量必須使用以下格式命名:PluginName_metricName。例如:MyPlugin_myFancyMetric。
核心指標具有特殊名稱,不符合此慣例。
#### 報告
報告使用DataTable類存儲在內存中。A DataTable是由行和列組成的二維數組。
每行都包含與一組訪問,操作,轉換相關的度量...該集合由特殊標簽列定義和描述。列描述的集合完全取決于具體的報告。例如,在UserSettings.getBrowser報告中,帶有Firefox標簽的行將包含使用Firefox瀏覽器的訪問指標。
一些報告VisitsSummary.get就不會有一個標簽列:它們只有一行引用整個實體集。
##### 報告元數據
除了指標之外,每一行還可以包含元數據。這個元數據通常會幫助標簽列描述行代表的事物集。
一些元數據在Piwik有特殊的含義,例如:
```shell
logo:該值可以是將在UI中的每一行旁邊顯示的圖像的路徑
url:該值可以是該行將在UI中鏈接到的URL
```
##### 子表
報表可以是層次結構的:每行都可以附加到另一個DataTable。附加到行的表稱為子表。
子表為行所代表的一組訪問提供進一步的分析。例如,Referrers.getSearchEngines報告每個搜索引擎有一行。每行都有一個子表,描述與該搜索引擎一起使用的關鍵字。以下是一個示意圖:
```shell
Search Engine Keyword (subtable) Visitors
--------------|-------------------|----------
Google | 207
--------------|------------------------------
| piwik | 11
| libre analytics | 6
| ...
---------------------------------------------
Duck Duck Go | 121
--------------|------------------------------
| ...
```
##### 命名約定
必須將報告命名為指標如下:PluginName_reportName。例如:MyPlugin_myFancyReport。
- 獻給樂于奉獻的你
- 一、工作感悟
- 1.1 工作感悟
- 1.2 數據庫工作總結
- 二、運維專題(非技術)
- 2.1 公有云運維
- 2.1.1 阿里云采坑記.md
- 三、運維專題(技術類)
- 3.1 Linux(操作系統)
- 3.1.1 常見工作總結
- 3.1.2 常見服務使用和部署
- 3.1.3 操作系統優化
- 3.1.4 常用命令(Centos8)
- 3.2 Docker & K8s(容器技術)
- 3.2.1 Docker
- 1. Docker
- 1-1 容器基礎
- 1-2 部署和加速
- 1-3 常用命令
- 1-4 Dockerfile編寫
- 1-5 容器網絡
- 1-6 數據持久化
- 2. docker-compose
- 2-1 基礎
- 3.2.2 kubernetes
- 1. 導讀-請先看我
- 2. kubeadm部署集群
- 1-1 k8s-1.14-基于calico
- 1-2 k8s-1.17-基于flanne
- 3. 二進制部署集群
- 4. 日常工作及故障處理
- 4-1 常用命令
- 4-2 故障處理
- 3.2.3 依賴服務部署
- 1. Harbor(鏡像倉庫)
- 1-1 harbor-2.1.0(單節點)
- 3.3 CICD(持續集成/部署)
- 3.3.1 GitLab
- 1. 服務部署
- 1-1 Gitlab-CE-13.3.4(單節點)
- 2. Git基礎
- 3.3.2 Ansible
- 1. 服務部署
- 1-2 ansible-2.5(pip部署)
- 3. ansible-playbook
- 3-1 基于Roles的Playbook
- 3-3 循環語法
- 3.3.3 Jnekins
- 1. Jenkins部署
- 1-1 Jenkins-2.65部署
- 1-2 Jenkins-2.249部署
- 2. Jenkins項目初始化
- 3. Jenkins集成
- 3-1 Jenkins-2.65集成Sonar
- 3.4 LB/HA(負載均衡,反向代理)
- 3.4.1 LVS+Keepalive
- 1. LVS為MySQL讀提供負載均衡
- 3.4.2 Pacemaker(HA)
- 1. 常用命令(轉)
- 3.5 Runtime(代碼運行環境)
- 3.5.1 Tomcat(Web中間件)
- 1. Tomcat部署手冊
- 1-1 Tomcat-7.0.76部署
- 2. Tomcat常用腳本
- 3.6 NoSQL(非關系型數據庫)
- 3.6.1 redis(非關系數據庫)
- 1. Redis 基礎
- 2. Redis 4.0變化
- 3. Codis實現Redis的集群
- 4. Redis故障處理
- 5. redis安全第一步
- 6. Redis集群搭建
- 7. CacheCloud部署
- 3.6.1 Redis挑戰
- 3.6.2 MongoDB(文檔數據庫)
- 1. Mongodb基礎
- 1-1 Mongodb4.0新特性
- 1-2 支持多大數據量
- 2. Mongodb安裝
- 2-1 Mac OS安裝Mongodb
- 2-2 Yum安裝Mongodb
- 2-3 二進制安裝Mongodb
- 2-4 docker容器安裝Mongodb
- 2-5 Mongodb 配置文件詳解
- 2-6 Mongodb 生產安全清單
- 2-7 用戶身份認證和授權
- 3. Mongodb副本集
- 3-1 副本集搭建
- 3-2 用戶身份認證與授權
- 4. 日常維護工作
- 4-1 Mongodb磁盤回收
- 4-2 Mongodb備份恢復到任意時間點
- 4-3 Mongodb慢查詢分析
- 4-4 Mongodb版本升級
- 4-5 Mongodb副本集成員狀態
- 4-6 Mongodb備份恢復工具使用
- 4-7 Mongodb服務啟動和停止
- 4-8 修改副本集成員oplog大小
- 4-9 Mongodb 副本集Oplog
- 3.7 MQ(消息隊列)
- 3.7.1 Zookeeper(分布式協調系統)
- 1. ZooKeeper基礎
- 2. ZooKeeper集群搭建
- 2-1 ZK-3.4.10部署
- 3.2 RabbitMQ(消息隊列)
- 1. 服務部署
- 1-1 RabbitMQ-3.8部署
- 2. 常用命令
- 3.8 Monitor(數據收集,監控)
- 3.8.1 Zabbix(運維監控)
- 1. 服務部署
- 1-1 服務端部署
- 1-2 客戶端部署
- 2. 監控服務
- 2-1 監控Apache
- 2-2 監控IIS
- 2-3 監控Ningx
- 2-4 監控Tomcat(6/7/8)
- 2-5 監控WebSphere 7
- 2-6 監控MySQL
- 2-7 監控Oracle
- 2-8 監控SQL Servre
- 2-9 監控Weblogic
- 2-10 監控Windows
- 2-11 自定義監控項
- 3. 告警推送
- 3-1 郵件告警
- 3-2 短信告警
- 3-3 告警推到Syslog
- 4. 日常工作
- 4-1 數據庫優化(TokuDB)
- 4-2 數據庫優化(分區表)
- 4-3 前端定制(Grafana)
- 5. 與Grafana結合
- 3.8.2 ELKBstack(日志收集展示)
- 1. 服務部署
- 1-1 ELK 5.5部署及配置
- 1-1-1 ELKBstack介紹
- 1-1-2 Elasticsearch部署
- 1-1-3 Logstash部署
- 1-1-4 Kibana部署
- 1-1-5 X-pack部署
- 1-1-6 Filebeat部署
- 2. ELK高級配置
- 1. Elasticsearch實戰
- 2. Logstash實戰
- 3. Filebeat實戰
- 5. 引入隊列
- 3.9 Virtualization(虛擬化)
- 3.10 Basic(基礎服務)
- 3.10.1 Piwik-Matomo(用戶行為分析)
- 1. Piwik前期分析
- 2. Piwik介紹和部署
- 2-1 Piwik-3.x版本(早期)
- 3. Piwik 功能配置
- 4. Piwik 模擬數據和壓測
- 5. Piwik運轉原理
- 6. Piwik數據庫模式(一)
- 6-1 第一部分
- 6-2 第二部分
- 3.10.2 Cobbler(系統自動部署)
- 1. Cobbler 可以干什么?
- 2. Cobbler 基礎原理
- 3. Cobbler 安裝
- 3-1 Cobbler-2.8部署
- 4. Cobbler 基礎配置
- 5. Cobbler 配置文件
- 6. 一鍵優化腳本
- 3.10.3 Rsync(數據同步服務)
- 1. Rsync基礎
- 2. 案例:頁面部署(服務端拉取)
- 3.10.4 NFS(共享存儲)
- 1. NFS部署手冊
- 2. 客戶端NFS備份腳本
- 3.10.5 Grafana(可視化)
- 1. 安裝(8.2.x)
- 3.11 Tools(軟件工具)
- 3.11.1 基準測試
- 1. 基準測試方法論
- 2. 壓測工具 - Siege
- 3. 壓測工具 - http_load
- 3.12 DB(關系型數據庫)
- 3.12.1 MySQL(關系數據庫)
- 1. MySQL部署
- 1-1 MySQL-5.7部署
- 1-2 Percona-5.7 + TokuDB 部署
- 2. MySQL復制
- 2-1 MySQL異步復制
- 3. MySQL備份恢復
- 3-1 xtrabackup 備份恢復
- 4. MySQL 高可用
- 4-1 MHA(HA)
- 4-1-1 MHA 架構介紹和原理
- 4-1-2 MHA日常管理
- 4-1-3 MHA 自動Failover
- 4-1-4 MHA常用參數
- 4-1-5 MHA 報錯
- 4-1-6 MHA相關配置文件和腳本
- 4-2 MyCAT
- 4-2-1 MyCAT 介紹和部署
- 4-1-3 MyCAT讀寫分離案例解析
- 5. MySQL 常用腳本
- 5-1 MySQL常用統計語句
- 5-2 MySQL性能分析腳本
- 6. MySQL 日常及故障處理
- 6-1 MySQL死鎖排查
- 6-2 復制故障
- 6-3 MySQL 升級注意事項
- 6-3 MySQL授權
- 3.12.2 Oracle(關系數據庫)
- 1. Oracle部署
- 1-1 Oracle11g單實例部署
- 1-2 Oracle12c單實例部署
- 2. Oracle常用腳本
- 3. Oracle 知識點
- 六、Ansible開源項目
- 6.1 項目初始化手冊
- 6.1.1 Ansible錯誤處理
- 6.1.2 一種預先判斷是否操作的方法
- 6.2 System初始化
- 6.3 Nginx/Tnginx部署
- 6.4 Python部署
- 6.5 PHP部署
- 6.6 MySQL部署
- 6.7 Docker部署
- 6.8 Haproxy部署
- 6.9 Redis部署
- 1. 變量和tags信息
- 3. Redis主從部署
- 4. Redis集群部署
- 5. 清理數據
- 6.10 Software軟件部署
- 6.11 Zabbix部署
- 6.12 Elastic部署
- 6.13 Tomcat
- 6.14 Kafka部署
- 6.15 Zookeeper部署
- 6.16 Etcd集群部署
- 6.17 M3DB部署
- 6.18 Pormetheus部署
- 七、學習資源推薦
- 八、從瞎搞到放棄
- 8.1 CodeQL(語義代碼分析引擎)
- 8.1.1 背景及計劃
- 8.1.2 CodeQL概述
- 8.1.3 簡單部署和使用
- 8.1.4 后續
- 8.2 dbdeployer(輕松部署MySQL)
- 歸檔筆記
- 三、常用服務部署(遷移中)
- 3.4 Nginx & PHP(Web服務)
- 3.4.1 Nginx(Web)
- 1. Nginx基礎和部署
- 2. Nginx 我的一些思考
- 3. Nginx(Web)配置
- 4. Nginx(Proxy)配置
- 5. Nginx日常管理
- 3.4.3 PHP
- 1. PHP 7.1 部署
- 2. PHP5.6 部署
- 4. PHP原理
- 5. PHP 常用模塊
- 二、運維項目實戰(遷移中)
- 2.1 標準化 & 工具化項目
- 2.1.1 系統部署和優化
- 2.1.5 全網日志收集展示平臺項目
- 1. 項目需求
- 2. 整體方案規劃
- 3. 日志收集配置
- 4. 消息緩沖隊列
- 5. 日志處理轉發
- 6. 日志數據展示(待補充)
- 7. ELK安全配置(上)
- 8. ELK安全配置(下)
- 9. 項目總結
- 2.2 高性能Web項目
- 2.2.1 網站需求(完善中)