# 使用Heketi作為kubernetes的持久存儲GlusterFS的external provisioner(Kubernetes集成GlusterFS集群和Heketi)
本文翻譯自[heketi的github網址官方文檔](https://github.com/heketi/heketi/blob/master/docs/admin/install-kubernetes.md )(大部分為google翻譯,少許人工調整,括號內為個人注解)其中注意事項部分為其他網上查詢所得。
本文的整個過程將在kubernetes集群上的3個或以上節點安裝glusterfs的服務端集群(DaemonSet方式),并將heketi以deployment的方式部署到kubernetes集群。在我的示例部分有StorageClass和PVC的樣例。本文介紹的Heketi,GlusterFS這2個組件與kubernetes集成只適合用于測試驗證環境,并不適合生產環境,請注意這一點。
Heketi是一個具有resetful接口的glusterfs管理程序,作為kubernetes的Storage存儲的external provisioner。
“Heketi提供了一個RESTful管理界面,可用于管理GlusterFS卷的生命周期。借助Heketi,像OpenStack Manila,Kubernetes和OpenShift這樣的云服務可以動態地配置GlusterFS卷和任何支持的持久性類型。Heketi將自動確定整個集群的brick位置,確保將brick及其副本放置在不同的故障域中。Heketi還支持任意數量的GlusterFS集群,允許云服務提供網絡文件存儲,而不受限于單個GlusterFS集群。”
## 注意事項
* 安裝Glusterfs客戶端:每個kubernetes集群的節點需要安裝gulsterfs的客戶端,如ubuntu系統的`apt-get install glusterfs-client`。
* 加載內核模塊:每個kubernetes集群的節點運行`modprobe dm_thin_pool`,加載內核模塊。
* 至少三個slave節點:至少需要3個kubernetes slave節點用來部署glusterfs集群,并且這3個slave節點每個節點需要至少一個空余的磁盤。
## 概述
本指南支持在Kubernetes集群中集成,部署和管理GlusterFS 容器化的存儲節點。這使得Kubernetes管理員可以為其用戶提供可靠的共享存儲。
跟這個話題相關的另一個重要資源是[gluster-kubernetes](https://github.com/gluster/gluster-kubernetes) 項目。它專注于在Kubernetes集群中部署GlusterFS,并提供簡化的工具來完成此任務。它包含一個安裝指南 [setup guide](https://github.com/gluster/gluster-kubernetes/blob/master/docs/setup-guide.md)。它還包括一個樣例 [Hello World](https://github.com/gluster/gluster-kubernetes/tree/master/docs/examples/hello_world)。其中包含一個使用動態配置(dynamically-provisioned)的GlusterFS卷進行存儲的Web server pod示例。對于那些想要測試或學習更多關于此主題的人,請按照主[README](https://github.com/gluster/gluster-kubernetes) 的快速入門說明 進行操作。
本指南旨在展示Heketi在Kubernetes環境中管理Gluster的最簡單示例。這是為了強調這種配置的主要組成組件,因此并不適合生產環境。
## 基礎設施要求
* 正在運行的Kubernetes集群,至少有三個Kubernetes工作節點,每個節點至少有一個可用的裸塊設備(如EBS卷或本地磁盤).
* 用于運行GlusterFS Pod的三個Kubernetes節點必須為GlusterFS通信打開相應的端口(如果開啟了防火墻的情況下,沒開防火墻就不需要這些操作)。在每個節點上運行以下命令。
```bash
iptables -N heketi
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24007 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24008 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 2222 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m multiport --dports 49152:49251 -j ACCEPT
service iptables save
```
## 客戶端安裝
Heketi提供了一個CLI客戶端,為用戶提供了一種管理Kubernetes中GlusterFS的部署和配置的方法。 在客戶端機器上下載并安裝[Download and install the heketi-cli](https://github.com/heketi/heketi/releases)。
## Glusterfs和Heketi在Kubernetes集群中的部署過程
以下所有文件都位于下方extras/kubernetes (`git clone https://github.com/heketi/heketi.git`)。
* 部署 GlusterFS DaemonSet
```bash
$ kubectl create -f glusterfs-daemonset.json
```
* 通過運行如下命令獲取節點名稱:
```bash
$ kubectl get nodes
```
* 通過設置storagenode=glusterfs節點上的標簽,將gluster容器部署到指定節點上。
```bash
$ kubectl label node <...node...> storagenode=glusterfs
```
根據需要重復打標簽的步驟。驗證Pod在節點上運行至少應運行3個Pod(因此至少需要給3個節點打標簽)。
```bash
$ kubectl get pods
```
* 接下來,我們將為Heketi創建一個服務帳戶(service-account):
```bash
$ kubectl create -f heketi-service-account.json
```
* 我們現在必須給該服務帳戶的授權綁定相應的權限來控制gluster的pod。我們通過為我們新創建的服務帳戶創建群集角色綁定(cluster role binding)來完成此操作。
```bash
$ kubectl create clusterrolebinding heketi-gluster-admin --clusterrole=edit --serviceaccount=default:heketi-service-account
```
* 現在我們需要創建一個Kubernetes secret來保存我們Heketi實例的配置。必須將配置文件的執行程序設置為 kubernetes才能讓Heketi server控制gluster pod(配置文件的默認配置)。除此這些,可以嘗試配置的其他選項。
```bash
$ kubectl create secret generic heketi-config-secret --from-file=./heketi.json
```
* 接下來,我們需要部署一個初始(bootstrap)Pod和一個服務來訪問該Pod。在你用git克隆的repo中,會有一個heketi-bootstrap.json文件。
提交文件并驗證一切正常運行,如下所示:
```bash
# kubectl create -f heketi-bootstrap.json
service "deploy-heketi" created
deployment "deploy-heketi" created
# kubectl get pods
NAME READY STATUS RESTARTS AGE
deploy-heketi-1211581626-2jotm 1/1 Running 0 35m
glusterfs-ip-172-20-0-217.ec2.internal-1217067810-4gsvx 1/1 Running 0 1h
glusterfs-ip-172-20-0-218.ec2.internal-2001140516-i9dw9 1/1 Running 0 1h
glusterfs-ip-172-20-0-219.ec2.internal-2785213222-q3hba 1/1 Running 0 1h
```
* 當Bootstrap heketi服務正在運行,我們配置端口轉發,以便我們可以使用Heketi CLI與服務進行通信。使用heketi pod的名稱,運行下面的命令:
`kubectl port-forward deploy-heketi-1211581626-2jotm :8080`
如果在運行命令的系統上本地端口8080是空閑的,則可以運行port-forward命令,以便綁定到8080以方便使用(2個命令二選一即可,我選擇第二個):
`kubectl port-forward deploy-heketi-1211581626-2jotm 8080:8080`
現在通過對Heketi服務運行示例查詢來驗證端口轉發是否正常。該命令應該已經打印了將從其轉發的本地端口。將其合并到URL中以測試服務,如下所示:
```bash
curl http://localhost:8080/hello
Handling connection for 8080
Hello from heketi
```
最后,為Heketi CLI客戶端設置一個環境變量,以便它知道Heketi服務器的地址。
`export HEKETI_CLI_SERVER=http://localhost:8080`
* 接下來,我們將向Heketi提供有關要管理的GlusterFS集群的信息。通過拓撲文件提供這些信息。克隆的repo中有一個示例拓撲文件,名為topology-sample.json。拓撲指定運行GlusterFS容器的Kubernetes節點以及每個節點的相應原始塊設備。
確保hostnames/manage指向如下所示的確切名稱kubectl get nodes得到的主機名(如ubuntu-1),并且hostnames/storage是存儲網絡的IP地址(對應ubuntu-1的ip地址)。
**IMPORTANT**: 重要提示,目前,必須使用與服務器版本匹配的Heketi-cli版本加載拓撲文件。另外,Heketi pod 帶有可以通過 `kubectl exec ...`訪問的heketi-cli副本。
修改拓撲文件以反映您所做的選擇,然后如下所示部署它(修改主機名,IP,block 設備的名稱 如xvdg):
```bash
heketi-client/bin/heketi-cli topology load --json=topology-sample.json
Handling connection for 57598
Found node ip-172-20-0-217.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
Found node ip-172-20-0-218.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
Found node ip-172-20-0-219.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
```
* 接下來,我們將使用heketi為其存儲其數據庫提供一個卷(不要懷疑,就是使用這個命令,openshift和kubernetes通用,此命令生成heketi-storage.json文件):
```bash
# heketi-client/bin/heketi-cli setup-openshift-heketi-storage
# kubectl create -f heketi-storage.json
```
> Pitfall: 注意,如果在運行setup-openshift-heketi-storage子命令時heketi-cli報告“無空間”錯誤,則可能無意中運行topology load命令的時候服務端和heketi-cli的版本不匹配造成的。停止正在運行的heketi pod(kubectl scale deployment deploy-heketi --replicas=0),手動刪除存儲塊設備中的任何簽名,然后繼續運行heketi pod(kubectl scale deployment deploy-heketi --replicas=1)。然后用匹配版本的heketi-cli重新加載拓撲,然后重試該步驟。
* 等到作業完成后,刪除bootstrap Heketi實例相關的組件:
```bash
# kubectl delete all,service,jobs,deployment,secret --selector="deploy-heketi"
```
* 創建長期使用的Heketi實例(存儲持久化的):
```bash
# kubectl create -f heketi-deployment.json
service "heketi" created
deployment "heketi" created
```
* 這樣做了以后,heketi db將使用GlusterFS卷,并且每當heketi pod重新啟動時都不會重置(數據不會丟失,存儲持久化)。
使用諸如heketi-cli cluster list和的命令heketi-cli volume list 來確認先前建立的集群存在,并且heketi可以列出在bootstrap階段創建的db存儲卷。
# 使用樣例
有兩種方法來調配存儲。常用的方法是設置一個StorageClass,讓Kubernetes為提交的PersistentVolumeClaim自動配置存儲。或者,可以通過Kubernetes手動創建和管理卷(PVs),或直接使用heketi-cli中的卷。
參考[gluster-kubernetes hello world example](https://github.com/gluster/gluster-kubernetes/blob/master/docs/examples/hello_world/README.md)
獲取關于 storageClass 的更多信息.
# 我的示例(非翻譯部分內容)
* topology文件:我的例子(3個節點,ubuntu-1(192.168.5.191),ubuntu-2(192.168.5.192),ubuntu-3(192.168.5.193),每個節點2個磁盤用來做存儲(sdb,sdc))
```bash
# cat topology-sample.json
```
```json
{
"clusters": [
{
"nodes": [
{
"node": {
"hostnames": {
"manage": [
"ubuntu-1"
],
"storage": [
"192.168.5.191"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
},
{
"node": {
"hostnames": {
"manage": [
"ubuntu-2"
],
"storage": [
"192.168.5.192"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
},
{
"node": {
"hostnames": {
"manage": [
"ubuntu-3"
],
"storage": [
"192.168.5.193"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
}
]
}
]
}
```
* 確認glusterfs和heketi的pod運行正常
```bash
# kubectl get pod
NAME READY STATUS RESTARTS AGE
glusterfs-gf5zc 1/1 Running 2 8h
glusterfs-ngc55 1/1 Running 2 8h
glusterfs-zncjs 1/1 Running 0 2h
heketi-5c8ffcc756-x9gnv 1/1 Running 5 7h
```
* StorageClass yaml文件示例
```bash
# cat storage-class-slow.yaml
```
```yaml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: slow #-------------SC的名字
provisioner: kubernetes.io/glusterfs
parameters:
resturl: "http://10.103.98.75:8080" #-------------heketi service的cluster ip 和端口
restuser: "admin" #-------------隨便填,因為沒有啟用鑒權模式
gidMin: "40000"
gidMax: "50000"
volumetype: "replicate:3" #-------------申請的默認為3副本模式
```
* PVC舉例
```bash
# cat pvc-sample.yaml
```
```yaml
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: myclaim
annotations:
volume.beta.kubernetes.io/storage-class: "slow" #-------------sc的名字,需要與storageclass的名字一致
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 1Gi
```
查看創建的pvc和pv
```bash
# kubectl get pvc|grep myclaim
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
myclaim Bound pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO slow 28s
# kubectl get pv|grep myclaim
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO Delete Bound default/myclaim slow 1m
```
* 可以將slow的sc設置為默認,這樣平臺分配存儲的時候可以自動從glusterfs集群分配pv
```bash
# kubectl patch storageclass slow -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
storageclass.storage.k8s.io "slow" patched
# kubectl get sc
NAME PROVISIONER AGE
default fuseim.pri/ifs 1d
slow (default) kubernetes.io/glusterfs 6h
```
# 容量限額測試
已經通過Helm 部署的一個mysql2 實例,使用存儲2G,信息查看如下:
```bash
# helm list
NAME REVISION UPDATED STATUS CHART NAMESPACE
mysql2 1 Thu Apr 12 15:27:11 2018 DEPLOYED mysql-0.3.7 default
```
查看PVC和PV,大小2G,mysql2-mysql
```bash
# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
mysql2-mysql Bound pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO slow 19h
# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO Delete Bound default/mysql2-mysql slow 19h
```
查看mysql的pod
```bash
# kubectl get pod|grep mysql2
mysql2-mysql-56d64f5b77-j2v84 1/1 Running 2 19h
```
進入mysql所在容器
```bash
# kubectl exec -it mysql2-mysql-56d64f5b77-j2v84 /bin/bash
```
查看掛載路徑,查看掛載信息
```bash
root@mysql2-mysql-56d64f5b77-j2v84:/#cd /var/lib/mysql
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql#
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem Size Used Avail Use% Mounted on
none 48G 9.2G 37G 21% /
tmpfs 1.5G 0 1.5G 0% /dev
tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts
shm 64M 0 64M 0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G 264M 1.8G 13% /var/lib/mysql
tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount
tmpfs 1.5G 0 1.5G 0% /sys/firmware
```
使用dd寫入數據,寫入一段時間以后,空間滿了,會報錯(報錯信息有bug,不是報空間滿了,而是報文件系統只讀,應該是glusterfs和docker配合的問題)
```bash
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# dd if=/dev/zero of=test.img bs=8M count=300
dd: error writing 'test.img': Read-only file system
dd: closing output file 'test.img': Input/output error
```
查看寫滿以后的文件大小
```bash
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# ls -l
total 2024662
-rw-r----- 1 mysql mysql 56 Apr 12 07:27 auto.cnf
-rw-r----- 1 mysql mysql 1329 Apr 12 07:27 ib_buffer_pool
-rw-r----- 1 mysql mysql 50331648 Apr 12 12:05 ib_logfile0
-rw-r----- 1 mysql mysql 50331648 Apr 12 07:27 ib_logfile1
-rw-r----- 1 mysql mysql 79691776 Apr 12 12:05 ibdata1
-rw-r----- 1 mysql mysql 12582912 Apr 12 12:05 ibtmp1
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 mysql
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 performance_schema
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 sys
-rw-r--r-- 1 root mysql 1880887296 Apr 13 02:47 test.img
```
查看掛載信息(掛載信息顯示bug,應該是glusterfs的bug)
```bash
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem Size Used Avail Use% Mounted on
none 48G 9.2G 37G 21% /
tmpfs 1.5G 0 1.5G 0% /dev
tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts
shm 64M 0 64M 0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G -16E 0 100% /var/lib/mysql
tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount
tmpfs 1.5G 0 1.5G 0% /sys/firmware
```
查看文件夾大小,為2G
```bash
# du -h
25M ./mysql
825K ./performance_schema
496K ./sys
2.0G .
```
如上說明glusterfs的限額作用是起效的,限制在2G的空間大小。
- 序言
- 云原生
- 云原生(Cloud Native)的定義
- CNCF - 云原生計算基金會簡介
- CNCF章程
- 云原生的設計哲學
- Play with Kubernetes
- 快速部署一個云原生本地實驗環境
- Kubernetes與云原生應用概覽
- 云原生應用之路——從Kubernetes到Cloud Native
- 云原生編程語言
- 云原生編程語言Ballerina
- 云原生編程語言Pulumi
- 云原生的未來
- Kubernetes架構
- 設計理念
- Etcd解析
- 開放接口
- CRI - Container Runtime Interface(容器運行時接口)
- CNI - Container Network Interface(容器網絡接口)
- CSI - Container Storage Interface(容器存儲接口)
- Kubernetes中的網絡
- Kubernetes中的網絡解析——以flannel為例
- Kubernetes中的網絡解析——以calico為例
- 具備API感知的網絡和安全性管理開源軟件Cilium
- Cilium架構設計與概念解析
- 資源對象與基本概念解析
- Pod狀態與生命周期管理
- Pod概覽
- Pod解析
- Init容器
- Pause容器
- Pod安全策略
- Pod的生命周期
- Pod Hook
- Pod Preset
- Pod中斷與PDB(Pod中斷預算)
- 集群資源管理
- Node
- Namespace
- Label
- Annotation
- Taint和Toleration(污點和容忍)
- 垃圾收集
- 控制器
- Deployment
- StatefulSet
- DaemonSet
- ReplicationController和ReplicaSet
- Job
- CronJob
- Horizontal Pod Autoscaling
- 自定義指標HPA
- 準入控制器(Admission Controller)
- 服務發現
- Service
- Ingress
- Traefik Ingress Controller
- 身份與權限控制
- ServiceAccount
- RBAC——基于角色的訪問控制
- NetworkPolicy
- 存儲
- Secret
- ConfigMap
- ConfigMap的熱更新
- Volume
- Persistent Volume(持久化卷)
- Storage Class
- 本地持久化存儲
- 集群擴展
- 使用自定義資源擴展API
- 使用CRD擴展Kubernetes API
- Aggregated API Server
- APIService
- Service Catalog
- 資源調度
- QoS(服務質量等級)
- 用戶指南
- 資源對象配置
- 配置Pod的liveness和readiness探針
- 配置Pod的Service Account
- Secret配置
- 管理namespace中的資源配額
- 命令使用
- Docker用戶過度到kubectl命令行指南
- kubectl命令概覽
- kubectl命令技巧大全
- 使用etcdctl訪問kubernetes數據
- 集群安全性管理
- 管理集群中的TLS
- kubelet的認證授權
- TLS bootstrap
- 創建用戶認證授權的kubeconfig文件
- IP偽裝代理
- 使用kubeconfig或token進行用戶身份認證
- Kubernetes中的用戶與身份認證授權
- Kubernetes集群安全性配置最佳實踐
- 訪問Kubernetes集群
- 訪問集群
- 使用kubeconfig文件配置跨集群認證
- 通過端口轉發訪問集群中的應用程序
- 使用service訪問群集中的應用程序
- 從外部訪問Kubernetes中的Pod
- Cabin - Kubernetes手機客戶端
- Kubernetic - Kubernetes桌面客戶端
- Kubernator - 更底層的Kubernetes UI
- 在Kubernetes中開發部署應用
- 適用于kubernetes的應用開發部署流程
- 遷移傳統應用到Kubernetes中——以Hadoop YARN為例
- 最佳實踐概覽
- 在CentOS上部署Kubernetes集群
- 創建TLS證書和秘鑰
- 創建kubeconfig文件
- 創建高可用etcd集群
- 安裝kubectl命令行工具
- 部署master節點
- 安裝flannel網絡插件
- 部署node節點
- 安裝kubedns插件
- 安裝dashboard插件
- 安裝heapster插件
- 安裝EFK插件
- 生產級的Kubernetes簡化管理工具kubeadm
- 使用kubeadm在Ubuntu Server 16.04上快速構建測試集群
- 服務發現與負載均衡
- 安裝Traefik ingress
- 分布式負載測試
- 網絡和集群性能測試
- 邊緣節點配置
- 安裝Nginx ingress
- 安裝配置DNS
- 安裝配置Kube-dns
- 安裝配置CoreDNS
- 運維管理
- Master節點高可用
- 服務滾動升級
- 應用日志收集
- 配置最佳實踐
- 集群及應用監控
- 數據持久化問題
- 管理容器的計算資源
- 集群聯邦
- 存儲管理
- GlusterFS
- 使用GlusterFS做持久化存儲
- 使用Heketi作為Kubernetes的持久存儲GlusterFS的external provisioner
- 在OpenShift中使用GlusterFS做持久化存儲
- GlusterD-2.0
- Ceph
- 用Helm托管安裝Ceph集群并提供后端存儲
- 使用Ceph做持久化存儲
- 使用rbd-provisioner提供rbd持久化存儲
- OpenEBS
- 使用OpenEBS做持久化存儲
- Rook
- NFS
- 利用NFS動態提供Kubernetes后端存儲卷
- 集群與應用監控
- Heapster
- 使用Heapster獲取集群和對象的metric數據
- Prometheus
- 使用Prometheus監控kubernetes集群
- Prometheus查詢語言PromQL使用說明
- 使用Vistio監控Istio服務網格中的流量
- 分布式跟蹤
- OpenTracing
- 服務編排管理
- 使用Helm管理Kubernetes應用
- 構建私有Chart倉庫
- 持續集成與發布
- 使用Jenkins進行持續集成與發布
- 使用Drone進行持續集成與發布
- 更新與升級
- 手動升級Kubernetes集群
- 升級dashboard
- 領域應用概覽
- 微服務架構
- 微服務中的服務發現
- 使用Java構建微服務并發布到Kubernetes平臺
- Spring Boot快速開始指南
- Service Mesh 服務網格
- 企業級服務網格架構
- Service Mesh基礎
- Service Mesh技術對比
- 采納和演進
- 定制和集成
- 總結
- Istio
- 安裝并試用Istio service mesh
- 配置請求的路由規則
- 安裝和拓展Istio service mesh
- 集成虛擬機
- Istio中sidecar的注入規范及示例
- 如何參與Istio社區及注意事項
- Istio教程
- Istio免費學習資源匯總
- 深入理解Istio Service Mesh中的Envoy Sidecar注入與流量劫持
- 深入理解Istio Service Mesh中的Envoy Sidecar代理的路由轉發
- Linkerd
- Linkerd 使用指南
- Conduit
- Condiut概覽
- 安裝Conduit
- Envoy
- Envoy的架構與基本術語
- Envoy作為前端代理
- Envoy mesh教程
- SOFAMesh
- SOFAMesh中的Dubbo on x-protocol
- SOFAMosn
- 使用 SOFAMosn 構建 SOFAMesh
- 大數據
- Spark standalone on Kubernetes
- 運行支持Kubernetes原生調度的Spark程序
- Serverless架構
- 理解Serverless
- FaaS-函數即服務
- OpenFaaS快速入門指南
- 邊緣計算
- 人工智能