# 使用Vistio監控Istio服務網格中的流量
Vistio GitHub地址:<https://github.com/nmnellis/vistio>
[Vizceral](https://github.com/Netflix/vizceral)是Netflix發布的一個開源項目,用于近乎實時地監控應用程序和集群之間的網絡流量。Vistio是使用Vizceral對Istio和網格監控的改進。它利用Istio Mixer生成的指標,然后將其輸入Prometheus。Vistio查詢Prometheus并將數據存儲在本地以允許重播流量。
Vizceral有兩個可視化級別,全局可視化和集群級別可視化。在全局范圍內(如上所示),您可以通過Istio Ingress Gateway等入口點將從Internet到Istio服務網格網絡的網絡流量可視化,或者您可以在Istio服務網格網絡中顯示總網絡流量。
在集群級別(如下所示),您可以可視化內部網格的流量。通過設置警告和錯誤級別警報,當應用程序出現問題時可以被快速檢測出來。

### 在Istio服務網格中安裝Vistio
**依賴**
- Prometheus
- Istio 0.7或更高版本
**假設**
以下Demo使得這些假設更容易部署。如果您的環境設置不同,則可能需要將代碼下載到本地并編輯一些文件。
- Prometheus部署在`istio-system` namespace下,可以通過`http://prometheus.istio-system:9090`地址訪問
- Istio mixer啟用了`istio_request_count` metric
- Kubernetes集群包含有`standard` StorageClass
- 為了便于部署已安裝了Helm(可選)
**前言**
如果您還尚未部署服務網格,可以按照此[Istio Bookinfo Demo](https://istio.io/docs/guides/bookinfo/)中的說明部署Istio及其示例應用程序。您需要能夠在應用程序之間生成流量。要測試指標是否從Mixer正確發送到Prometheus,您可以運行以下Prometheus查詢`istio_request_count`,應該會看到多個條目。

### 部署Vistio
我們直接使用kubectl命令來部署。
**使用kubectl部署**
```bash
kubectl apply -f https://raw.githubusercontent.com/rootsongjc/kubernetes-handbook/master/manifests/vistio/vistio-mesh-only.yaml -n default
```
### 驗證和暴露Vistio Web/API
驗證應用程序已經啟動并在運行。使用`kubectl port-forward`命令暴露應用程序。
**驗證vistio-api**
```bash
kubectl describe statefulset vistio-api -n default
```
**日志檢查(可選的)**
您應該能夠從vistio-api的日志中查看是否存在與Prometheus的連接/查詢相關的錯誤。
```bash
kubectl logs -n default -c vistio-api $(kubectl -n default get pod -l app=vistio-api -o jsonpath='{.items[0].metadata.name}')
```
**驗證vistio-web**
```bash
kubectl describe deployment vistio-web -n default
```
**暴露vistio-api**
我們使用`kubectl port-forward`將vistio-api暴露到[http://localhost:9191](http://localhost:9191/)。
```bash
kubectl -n default port-forward $(kubectl -n default get pod -l app=vistio-api -o jsonpath='{.items[0].metadata.name}') 9091:9091 &
```
**驗證visito-api**
vistio-web調用vistio-api來渲染服務網格。訪問<http://localhost:9091/graph>您應該會看到類似下列的輸出。

**暴露Vistio**
在另一個命令行終端中,暴露Vizcera UI到[http://localhost:8080](http://localhost:8080/)。
```bash
kubectl -n default port-forward $(kubectl -n default get pod -l app=vistio-web -o jsonpath='{.items[0].metadata.name}') 8080:8080 &
```
**訪問Vistio**
如果一切都已經啟動并準備就緒,您就可以訪問Vistio UI,開始探索服務網格網絡,訪問[http://localhost:8080](http://localhost:8080/)您將會看到類似下圖的輸出。

### 探索
在全局范圍內,您將看到Istio網格內所有請求的總和。如果您部署了istio-ingressgateway,則可以選擇顯示通過其他配置從網格外部接收的流量,參考[使用Ingress Gateway部署Vistio](https://github.com/nmnellis/vistio#deploy-vistio-with-istio-ingress-gateway-helm)。
如果您點擊istio-mesh氣泡,您將能夠查看您的網狀網絡。

在您的Istio網格中,您可以使用許多可視化工具來幫助您查明故障的應用程序。

使用屏幕右上方的過濾器可以快速過濾出錯誤率較高的應用程序。通過高級配置,當錯誤率超過特定值時,也可以觸發警報。警報將顯示給定應用程序的當前錯誤率趨勢。
### 問題排查
訪問<http://localhost:9091/graph>,如果您從vistio-api中看到以下輸出,表示某些功能無法正常工作。正確的輸出顯示在教程上面。

**1.** 檢查vistio-api日志中是否有錯誤——在大多數情況下,vistio-api將記錄與Prometheus通信時遇到的任何問題。
```bash
kubectl logs -n default -c vistio-api $(kubectl -n default get pod -l app=vistio-api -o jsonpath='{.items[0].metadata.name}')
```
**2.** 驗證Prometheus查詢——vistio-api使用以下查詢檢索其數據。您應該確保Prometheus內部的數據都存在。
```bash
# Global Level Query
sum(rate(istio_request_count[1m])) by (response_code)
# Cluster Level Query
sum(rate(istio_request_count[1m])) by (source_service,destination_service,response_code)
```
**3.** 提交Issue——如果遇到問題無法解決請提交Issue:<https://github.com/nmnellis/vistio/issues>
## 參考
- https://github.com/nmnellis/vistio
- [Vistio—使用Netflix的Vizceral可視化Istio service mesh](https://servicemesher.github.io/blog/vistio-visualize-your-istio-mesh-using-netflixs-vizceral/)
- 序言
- 云原生
- 云原生(Cloud Native)的定義
- CNCF - 云原生計算基金會簡介
- CNCF章程
- 云原生的設計哲學
- Play with Kubernetes
- 快速部署一個云原生本地實驗環境
- Kubernetes與云原生應用概覽
- 云原生應用之路——從Kubernetes到Cloud Native
- 云原生編程語言
- 云原生編程語言Ballerina
- 云原生編程語言Pulumi
- 云原生的未來
- Kubernetes架構
- 設計理念
- Etcd解析
- 開放接口
- CRI - Container Runtime Interface(容器運行時接口)
- CNI - Container Network Interface(容器網絡接口)
- CSI - Container Storage Interface(容器存儲接口)
- Kubernetes中的網絡
- Kubernetes中的網絡解析——以flannel為例
- Kubernetes中的網絡解析——以calico為例
- 具備API感知的網絡和安全性管理開源軟件Cilium
- Cilium架構設計與概念解析
- 資源對象與基本概念解析
- Pod狀態與生命周期管理
- Pod概覽
- Pod解析
- Init容器
- Pause容器
- Pod安全策略
- Pod的生命周期
- Pod Hook
- Pod Preset
- Pod中斷與PDB(Pod中斷預算)
- 集群資源管理
- Node
- Namespace
- Label
- Annotation
- Taint和Toleration(污點和容忍)
- 垃圾收集
- 控制器
- Deployment
- StatefulSet
- DaemonSet
- ReplicationController和ReplicaSet
- Job
- CronJob
- Horizontal Pod Autoscaling
- 自定義指標HPA
- 準入控制器(Admission Controller)
- 服務發現
- Service
- Ingress
- Traefik Ingress Controller
- 身份與權限控制
- ServiceAccount
- RBAC——基于角色的訪問控制
- NetworkPolicy
- 存儲
- Secret
- ConfigMap
- ConfigMap的熱更新
- Volume
- Persistent Volume(持久化卷)
- Storage Class
- 本地持久化存儲
- 集群擴展
- 使用自定義資源擴展API
- 使用CRD擴展Kubernetes API
- Aggregated API Server
- APIService
- Service Catalog
- 資源調度
- QoS(服務質量等級)
- 用戶指南
- 資源對象配置
- 配置Pod的liveness和readiness探針
- 配置Pod的Service Account
- Secret配置
- 管理namespace中的資源配額
- 命令使用
- Docker用戶過度到kubectl命令行指南
- kubectl命令概覽
- kubectl命令技巧大全
- 使用etcdctl訪問kubernetes數據
- 集群安全性管理
- 管理集群中的TLS
- kubelet的認證授權
- TLS bootstrap
- 創建用戶認證授權的kubeconfig文件
- IP偽裝代理
- 使用kubeconfig或token進行用戶身份認證
- Kubernetes中的用戶與身份認證授權
- Kubernetes集群安全性配置最佳實踐
- 訪問Kubernetes集群
- 訪問集群
- 使用kubeconfig文件配置跨集群認證
- 通過端口轉發訪問集群中的應用程序
- 使用service訪問群集中的應用程序
- 從外部訪問Kubernetes中的Pod
- Cabin - Kubernetes手機客戶端
- Kubernetic - Kubernetes桌面客戶端
- Kubernator - 更底層的Kubernetes UI
- 在Kubernetes中開發部署應用
- 適用于kubernetes的應用開發部署流程
- 遷移傳統應用到Kubernetes中——以Hadoop YARN為例
- 最佳實踐概覽
- 在CentOS上部署Kubernetes集群
- 創建TLS證書和秘鑰
- 創建kubeconfig文件
- 創建高可用etcd集群
- 安裝kubectl命令行工具
- 部署master節點
- 安裝flannel網絡插件
- 部署node節點
- 安裝kubedns插件
- 安裝dashboard插件
- 安裝heapster插件
- 安裝EFK插件
- 生產級的Kubernetes簡化管理工具kubeadm
- 使用kubeadm在Ubuntu Server 16.04上快速構建測試集群
- 服務發現與負載均衡
- 安裝Traefik ingress
- 分布式負載測試
- 網絡和集群性能測試
- 邊緣節點配置
- 安裝Nginx ingress
- 安裝配置DNS
- 安裝配置Kube-dns
- 安裝配置CoreDNS
- 運維管理
- Master節點高可用
- 服務滾動升級
- 應用日志收集
- 配置最佳實踐
- 集群及應用監控
- 數據持久化問題
- 管理容器的計算資源
- 集群聯邦
- 存儲管理
- GlusterFS
- 使用GlusterFS做持久化存儲
- 使用Heketi作為Kubernetes的持久存儲GlusterFS的external provisioner
- 在OpenShift中使用GlusterFS做持久化存儲
- GlusterD-2.0
- Ceph
- 用Helm托管安裝Ceph集群并提供后端存儲
- 使用Ceph做持久化存儲
- 使用rbd-provisioner提供rbd持久化存儲
- OpenEBS
- 使用OpenEBS做持久化存儲
- Rook
- NFS
- 利用NFS動態提供Kubernetes后端存儲卷
- 集群與應用監控
- Heapster
- 使用Heapster獲取集群和對象的metric數據
- Prometheus
- 使用Prometheus監控kubernetes集群
- Prometheus查詢語言PromQL使用說明
- 使用Vistio監控Istio服務網格中的流量
- 分布式跟蹤
- OpenTracing
- 服務編排管理
- 使用Helm管理Kubernetes應用
- 構建私有Chart倉庫
- 持續集成與發布
- 使用Jenkins進行持續集成與發布
- 使用Drone進行持續集成與發布
- 更新與升級
- 手動升級Kubernetes集群
- 升級dashboard
- 領域應用概覽
- 微服務架構
- 微服務中的服務發現
- 使用Java構建微服務并發布到Kubernetes平臺
- Spring Boot快速開始指南
- Service Mesh 服務網格
- 企業級服務網格架構
- Service Mesh基礎
- Service Mesh技術對比
- 采納和演進
- 定制和集成
- 總結
- Istio
- 安裝并試用Istio service mesh
- 配置請求的路由規則
- 安裝和拓展Istio service mesh
- 集成虛擬機
- Istio中sidecar的注入規范及示例
- 如何參與Istio社區及注意事項
- Istio教程
- Istio免費學習資源匯總
- 深入理解Istio Service Mesh中的Envoy Sidecar注入與流量劫持
- 深入理解Istio Service Mesh中的Envoy Sidecar代理的路由轉發
- Linkerd
- Linkerd 使用指南
- Conduit
- Condiut概覽
- 安裝Conduit
- Envoy
- Envoy的架構與基本術語
- Envoy作為前端代理
- Envoy mesh教程
- SOFAMesh
- SOFAMesh中的Dubbo on x-protocol
- SOFAMosn
- 使用 SOFAMosn 構建 SOFAMesh
- 大數據
- Spark standalone on Kubernetes
- 運行支持Kubernetes原生調度的Spark程序
- Serverless架構
- 理解Serverless
- FaaS-函數即服務
- OpenFaaS快速入門指南
- 邊緣計算
- 人工智能