# Rook
[Rook](https://github.com/rook/rook)是一款云原生環境下的開源分布式存儲編排系統,目前已進入CNCF孵化。Rook的官方網站是<https://rook.io>。
## Rook是什么?
Rook將分布式存儲軟件轉變為自我管理,自我縮放和自我修復的存儲服務。它通過自動化部署,引導、配置、供應、擴展、升級、遷移、災難恢復、監控和資源管理來實現。 Rook使用基礎的云原生容器管理、調度和編排平臺提供的功能來履行其職責。
Rook利用擴展點深入融入云原生環境,為調度、生命周期管理、資源管理、安全性、監控和用戶體驗提供無縫體驗。
Rook現在處于alpha狀態,并且最初專注于在Kubernetes之上運行Ceph。Ceph是一個分布式存儲系統,提供文件、數據塊和對象存儲,可以部署在大型生產集群中。Rook計劃在未來的版本中增加對除Ceph之外的其他存儲系統以及Kubernetes之外的其他云原生環境的支持。
## 部署
可以使用helm或直接用yaml文件兩種方式來部署rook operator。
**使用helm部署**
```bash
helm init -i jimmysong/kubernetes-helm-tiller:v2.8.1
helm repo add rook-alpha https://charts.rook.io/alpha
helm install rook-alpha/rook --name rook --namespace rook-system
```
**直接使用yaml文件部署**
```bash
kubectl apply -f rook-operator.yaml
```
不論使用那種方式部署的rook operator,都會在rook-agent中看到rook-agent用戶無法列出集群中某些資源的錯誤,可以通過為rook-agent的分配`cluster-admin`權限臨時解決,詳見[Issue 1472](https://github.com/rook/rook/issues/1472)。
使用如下yanl文件創建一個`ClusterRoleBinding`并應用到集群中。
```yaml
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: rookagent-clusterrolebinding
subjects:
- kind: ServiceAccount
name: rook-agent
namespace: rook-system
roleRef:
kind: ClusterRole
name: cluster-admin
apiGroup: ""
```
**部署rook cluster**
創建完rook operator后,我們再部署rook cluster。
`rook-cluster.yaml`配置如下:
```yaml
apiVersion: v1
kind: Namespace
metadata:
name: rook
---
apiVersion: rook.io/v1alpha1
kind: Cluster
metadata:
name: rook
namespace: rook
spec:
versionTag: v0.6.2
dataDirHostPath: /var/lib/rook
storage:
useAllNodes: true
useAllDevices: false
storeConfig:
storeType: bluestore
databaseSizeMB: 1024
journalSizeMB: 1024
```
**注意**:需要手動指定`versionTag`,因為該鏡像repo中沒有`latest`標簽,如不指定的話Pod將出現鏡像拉取錯誤。
執行下面的命令部署rook集群。
```bash
kubectl apply -f rook-cluster.yaml
```
rook集群運行在`rook` namespace下,查看rook集群中的pod:
```bash
$ kubectl -n rook get pod
NAME READY STATUS RESTARTS AGE
rook-api-848df956bf-q6zf2 1/1 Running 0 4m
rook-ceph-mgr0-cfccfd6b8-cpk5p 1/1 Running 0 4m
rook-ceph-mon0-t496l 1/1 Running 0 6m
rook-ceph-mon1-zcn7v 1/1 Running 0 5m
rook-ceph-mon3-h97qx 1/1 Running 0 3m
rook-ceph-osd-557tn 1/1 Running 0 4m
rook-ceph-osd-74frb 1/1 Running 0 4m
rook-ceph-osd-zf7rg 1/1 Running 1 4m
rook-tools 1/1 Running 0 2m
```
**部署StorageClass**
StorageClass rook-block的yaml文件(rook-storage.yaml)如下:
```yaml
apiVersion: rook.io/v1alpha1
kind: Pool
metadata:
name: replicapool
namespace: rook
spec:
replicated:
size: 1
# For an erasure-coded pool, comment out the replication size above and uncomment the following settings.
# Make sure you have enough OSDs to support the replica size or erasure code chunks.
#erasureCoded:
# dataChunks: 2
# codingChunks: 1
---
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: rook-block
provisioner: rook.io/block
parameters:
pool: replicapool
# Specify the Rook cluster from which to create volumes.
# If not specified, it will use `rook` as the name of the cluster.
# This is also the namespace where the cluster will be
clusterName: rook
# Specify the filesystem type of the volume. If not specified, it will use `ext4`.
# fstype: ext4
```
我們在下面的示例中將使用rook-block這個StorageClass來創建PV。
## 工具
部署rook操作工具pod,該工具pod的yaml文件(rook-tools.yaml)如下:
```yaml
apiVersion: v1
kind: Pod
metadata:
name: rook-tools
namespace: rook-system
spec:
dnsPolicy: ClusterFirstWithHostNet
serviceAccountName: rook-operator
containers:
- name: rook-tools
image: rook/toolbox:master
imagePullPolicy: IfNotPresent
env:
- name: ROOK_ADMIN_SECRET
valueFrom:
secretKeyRef:
name: rook-ceph-mon
key: admin-secret
securityContext:
privileged: true
volumeMounts:
- mountPath: /dev
name: dev
- mountPath: /sys/bus
name: sysbus
- mountPath: /lib/modules
name: libmodules
- name: mon-endpoint-volume
mountPath: /etc/rook
hostNetwork: false
volumes:
- name: dev
hostPath:
path: /dev
- name: sysbus
hostPath:
path: /sys/bus
- name: libmodules
hostPath:
path: /lib/modules
- name: mon-endpoint-volume
configMap:
name: rook-ceph-mon-endpoints
items:
- key: endpoint
path: mon-endpoints
```
`ConfigMap`和`Secret`中的配置項內容是自定義的。
使用下面的命令部署工具pod:
```bash
kubectl apply -f rook-tools.yaml
```
這是一個獨立的pod,沒有使用其他高級的controller來管理,我們將它部署在`rook-system`的namespace下。
```bash
kubectl -n rook exec -it rook-tools bash
```
使用下面的命令查看rook集群狀態。
```bash
$ rookctl status
OVERALL STATUS: OK
USAGE:
TOTAL USED DATA AVAILABLE
37.95 GiB 1.50 GiB 0 B 36.45 GiB
MONITORS:
NAME ADDRESS IN QUORUM STATUS
rook-ceph-mon0 10.254.162.99:6790/0 true UNKNOWN
MGRs:
NAME STATUS
rook-ceph-mgr0 Active
OSDs:
TOTAL UP IN FULL NEAR FULL
1 1 1 false false
PLACEMENT GROUPS (0 total):
STATE COUNT
none
$ ceph df
GLOBAL:
SIZE AVAIL RAW USED %RAW USED
38861M 37323M 1537M 3.96
POOLS:
NAME ID USED %USED MAX AVAIL OBJECTS
```
## 示例
官方提供了使用rook作為典型的LAMP(Linux + Apache + MySQL + PHP)應用Wordpress的存儲后端的示例的yaml文件`mysql.yaml`和`wordpress.yaml`,使用下面的命令創建。
```bash
kubectl apply -f mysql.yaml
kubectl apply -f wordpress.yaml
```
Wordpress要依賴于MySQL,所以要先創建MySQL。
在創建wordpress的時候可能遇到該錯誤[rook flexvolume failing to attach volumes #1147](https://github.com/rook/rook/issues/1147),該問題尚未解決。
## 清理
如果使用helm部署,則執行下面的命令:
```bash
helm delete --purge rook
helm delete daemonset rook-agent
```
如果使用yaml文件直接部署,則使用`kubectl delete -f `加當初使用的yaml文件即可刪除集群。
## 參考
- [Operator Helm Chart](https://rook.io/docs/rook/master/helm-operator.html)
- [Creating Rook Clusters](https://rook.io/docs/rook/v0.6/cluster-crd.html)
- 序言
- 云原生
- 云原生(Cloud Native)的定義
- CNCF - 云原生計算基金會簡介
- CNCF章程
- 云原生的設計哲學
- Play with Kubernetes
- 快速部署一個云原生本地實驗環境
- Kubernetes與云原生應用概覽
- 云原生應用之路——從Kubernetes到Cloud Native
- 云原生編程語言
- 云原生編程語言Ballerina
- 云原生編程語言Pulumi
- 云原生的未來
- Kubernetes架構
- 設計理念
- Etcd解析
- 開放接口
- CRI - Container Runtime Interface(容器運行時接口)
- CNI - Container Network Interface(容器網絡接口)
- CSI - Container Storage Interface(容器存儲接口)
- Kubernetes中的網絡
- Kubernetes中的網絡解析——以flannel為例
- Kubernetes中的網絡解析——以calico為例
- 具備API感知的網絡和安全性管理開源軟件Cilium
- Cilium架構設計與概念解析
- 資源對象與基本概念解析
- Pod狀態與生命周期管理
- Pod概覽
- Pod解析
- Init容器
- Pause容器
- Pod安全策略
- Pod的生命周期
- Pod Hook
- Pod Preset
- Pod中斷與PDB(Pod中斷預算)
- 集群資源管理
- Node
- Namespace
- Label
- Annotation
- Taint和Toleration(污點和容忍)
- 垃圾收集
- 控制器
- Deployment
- StatefulSet
- DaemonSet
- ReplicationController和ReplicaSet
- Job
- CronJob
- Horizontal Pod Autoscaling
- 自定義指標HPA
- 準入控制器(Admission Controller)
- 服務發現
- Service
- Ingress
- Traefik Ingress Controller
- 身份與權限控制
- ServiceAccount
- RBAC——基于角色的訪問控制
- NetworkPolicy
- 存儲
- Secret
- ConfigMap
- ConfigMap的熱更新
- Volume
- Persistent Volume(持久化卷)
- Storage Class
- 本地持久化存儲
- 集群擴展
- 使用自定義資源擴展API
- 使用CRD擴展Kubernetes API
- Aggregated API Server
- APIService
- Service Catalog
- 資源調度
- QoS(服務質量等級)
- 用戶指南
- 資源對象配置
- 配置Pod的liveness和readiness探針
- 配置Pod的Service Account
- Secret配置
- 管理namespace中的資源配額
- 命令使用
- Docker用戶過度到kubectl命令行指南
- kubectl命令概覽
- kubectl命令技巧大全
- 使用etcdctl訪問kubernetes數據
- 集群安全性管理
- 管理集群中的TLS
- kubelet的認證授權
- TLS bootstrap
- 創建用戶認證授權的kubeconfig文件
- IP偽裝代理
- 使用kubeconfig或token進行用戶身份認證
- Kubernetes中的用戶與身份認證授權
- Kubernetes集群安全性配置最佳實踐
- 訪問Kubernetes集群
- 訪問集群
- 使用kubeconfig文件配置跨集群認證
- 通過端口轉發訪問集群中的應用程序
- 使用service訪問群集中的應用程序
- 從外部訪問Kubernetes中的Pod
- Cabin - Kubernetes手機客戶端
- Kubernetic - Kubernetes桌面客戶端
- Kubernator - 更底層的Kubernetes UI
- 在Kubernetes中開發部署應用
- 適用于kubernetes的應用開發部署流程
- 遷移傳統應用到Kubernetes中——以Hadoop YARN為例
- 最佳實踐概覽
- 在CentOS上部署Kubernetes集群
- 創建TLS證書和秘鑰
- 創建kubeconfig文件
- 創建高可用etcd集群
- 安裝kubectl命令行工具
- 部署master節點
- 安裝flannel網絡插件
- 部署node節點
- 安裝kubedns插件
- 安裝dashboard插件
- 安裝heapster插件
- 安裝EFK插件
- 生產級的Kubernetes簡化管理工具kubeadm
- 使用kubeadm在Ubuntu Server 16.04上快速構建測試集群
- 服務發現與負載均衡
- 安裝Traefik ingress
- 分布式負載測試
- 網絡和集群性能測試
- 邊緣節點配置
- 安裝Nginx ingress
- 安裝配置DNS
- 安裝配置Kube-dns
- 安裝配置CoreDNS
- 運維管理
- Master節點高可用
- 服務滾動升級
- 應用日志收集
- 配置最佳實踐
- 集群及應用監控
- 數據持久化問題
- 管理容器的計算資源
- 集群聯邦
- 存儲管理
- GlusterFS
- 使用GlusterFS做持久化存儲
- 使用Heketi作為Kubernetes的持久存儲GlusterFS的external provisioner
- 在OpenShift中使用GlusterFS做持久化存儲
- GlusterD-2.0
- Ceph
- 用Helm托管安裝Ceph集群并提供后端存儲
- 使用Ceph做持久化存儲
- 使用rbd-provisioner提供rbd持久化存儲
- OpenEBS
- 使用OpenEBS做持久化存儲
- Rook
- NFS
- 利用NFS動態提供Kubernetes后端存儲卷
- 集群與應用監控
- Heapster
- 使用Heapster獲取集群和對象的metric數據
- Prometheus
- 使用Prometheus監控kubernetes集群
- Prometheus查詢語言PromQL使用說明
- 使用Vistio監控Istio服務網格中的流量
- 分布式跟蹤
- OpenTracing
- 服務編排管理
- 使用Helm管理Kubernetes應用
- 構建私有Chart倉庫
- 持續集成與發布
- 使用Jenkins進行持續集成與發布
- 使用Drone進行持續集成與發布
- 更新與升級
- 手動升級Kubernetes集群
- 升級dashboard
- 領域應用概覽
- 微服務架構
- 微服務中的服務發現
- 使用Java構建微服務并發布到Kubernetes平臺
- Spring Boot快速開始指南
- Service Mesh 服務網格
- 企業級服務網格架構
- Service Mesh基礎
- Service Mesh技術對比
- 采納和演進
- 定制和集成
- 總結
- Istio
- 安裝并試用Istio service mesh
- 配置請求的路由規則
- 安裝和拓展Istio service mesh
- 集成虛擬機
- Istio中sidecar的注入規范及示例
- 如何參與Istio社區及注意事項
- Istio教程
- Istio免費學習資源匯總
- 深入理解Istio Service Mesh中的Envoy Sidecar注入與流量劫持
- 深入理解Istio Service Mesh中的Envoy Sidecar代理的路由轉發
- Linkerd
- Linkerd 使用指南
- Conduit
- Condiut概覽
- 安裝Conduit
- Envoy
- Envoy的架構與基本術語
- Envoy作為前端代理
- Envoy mesh教程
- SOFAMesh
- SOFAMesh中的Dubbo on x-protocol
- SOFAMosn
- 使用 SOFAMosn 構建 SOFAMesh
- 大數據
- Spark standalone on Kubernetes
- 運行支持Kubernetes原生調度的Spark程序
- Serverless架構
- 理解Serverless
- FaaS-函數即服務
- OpenFaaS快速入門指南
- 邊緣計算
- 人工智能