<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??碼云GVP開源項目 12k star Uniapp+ElementUI 功能強大 支持多語言、二開方便! 廣告
                # 使用Heketi作為kubernetes的持久存儲GlusterFS的external provisioner(Kubernetes集成GlusterFS集群和Heketi) 本文翻譯自[heketi的github網址官方文檔](https://github.com/heketi/heketi/blob/master/docs/admin/install-kubernetes.md )(大部分為google翻譯,少許人工調整,括號內為個人注解)其中注意事項部分為其他網上查詢所得。 本文的整個過程將在kubernetes集群上的3個或以上節點安裝glusterfs的服務端集群(DaemonSet方式),并將heketi以deployment的方式部署到kubernetes集群。在我的示例部分有StorageClass和PVC的樣例。本文介紹的Heketi,GlusterFS這2個組件與kubernetes集成只適合用于測試驗證環境,并不適合生產環境,請注意這一點。 Heketi是一個具有resetful接口的glusterfs管理程序,作為kubernetes的Storage存儲的external provisioner。 “Heketi提供了一個RESTful管理界面,可用于管理GlusterFS卷的生命周期。借助Heketi,像OpenStack Manila,Kubernetes和OpenShift這樣的云服務可以動態地配置GlusterFS卷和任何支持的持久性類型。Heketi將自動確定整個集群的brick位置,確保將brick及其副本放置在不同的故障域中。Heketi還支持任意數量的GlusterFS集群,允許云服務提供網絡文件存儲,而不受限于單個GlusterFS集群。” ## 注意事項 * 安裝Glusterfs客戶端:每個kubernetes集群的節點需要安裝gulsterfs的客戶端,如ubuntu系統的`apt-get install glusterfs-client`。 * 加載內核模塊:每個kubernetes集群的節點運行`modprobe dm_thin_pool`,加載內核模塊。 * 至少三個slave節點:至少需要3個kubernetes slave節點用來部署glusterfs集群,并且這3個slave節點每個節點需要至少一個空余的磁盤。 ## 概述 本指南支持在Kubernetes集群中集成,部署和管理GlusterFS 容器化的存儲節點。這使得Kubernetes管理員可以為其用戶提供可靠的共享存儲。 跟這個話題相關的另一個重要資源是[gluster-kubernetes](https://github.com/gluster/gluster-kubernetes) 項目。它專注于在Kubernetes集群中部署GlusterFS,并提供簡化的工具來完成此任務。它包含一個安裝指南 [setup guide](https://github.com/gluster/gluster-kubernetes/blob/master/docs/setup-guide.md)。它還包括一個樣例 [Hello World](https://github.com/gluster/gluster-kubernetes/tree/master/docs/examples/hello_world)。其中包含一個使用動態配置(dynamically-provisioned)的GlusterFS卷進行存儲的Web server pod示例。對于那些想要測試或學習更多關于此主題的人,請按照主[README](https://github.com/gluster/gluster-kubernetes) 的快速入門說明 進行操作。 本指南旨在展示Heketi在Kubernetes環境中管理Gluster的最簡單示例。這是為了強調這種配置的主要組成組件,因此并不適合生產環境。 ## 基礎設施要求 * 正在運行的Kubernetes集群,至少有三個Kubernetes工作節點,每個節點至少有一個可用的裸塊設備(如EBS卷或本地磁盤). * 用于運行GlusterFS Pod的三個Kubernetes節點必須為GlusterFS通信打開相應的端口(如果開啟了防火墻的情況下,沒開防火墻就不需要這些操作)。在每個節點上運行以下命令。 ```bash iptables -N heketi iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24007 -j ACCEPT iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24008 -j ACCEPT iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 2222 -j ACCEPT iptables -A heketi -p tcp -m state --state NEW -m multiport --dports 49152:49251 -j ACCEPT service iptables save ``` ## 客戶端安裝 Heketi提供了一個CLI客戶端,為用戶提供了一種管理Kubernetes中GlusterFS的部署和配置的方法。 在客戶端機器上下載并安裝[Download and install the heketi-cli](https://github.com/heketi/heketi/releases)。 ## Glusterfs和Heketi在Kubernetes集群中的部署過程 以下所有文件都位于下方extras/kubernetes (`git clone https://github.com/heketi/heketi.git`)。 * 部署 GlusterFS DaemonSet ```bash $ kubectl create -f glusterfs-daemonset.json ``` * 通過運行如下命令獲取節點名稱: ```bash $ kubectl get nodes ``` * 通過設置storagenode=glusterfs節點上的標簽,將gluster容器部署到指定節點上。 ```bash $ kubectl label node <...node...> storagenode=glusterfs ``` 根據需要重復打標簽的步驟。驗證Pod在節點上運行至少應運行3個Pod(因此至少需要給3個節點打標簽)。 ```bash $ kubectl get pods ``` * 接下來,我們將為Heketi創建一個服務帳戶(service-account): ```bash $ kubectl create -f heketi-service-account.json ``` * 我們現在必須給該服務帳戶的授權綁定相應的權限來控制gluster的pod。我們通過為我們新創建的服務帳戶創建群集角色綁定(cluster role binding)來完成此操作。 ```bash $ kubectl create clusterrolebinding heketi-gluster-admin --clusterrole=edit --serviceaccount=default:heketi-service-account ``` * 現在我們需要創建一個Kubernetes secret來保存我們Heketi實例的配置。必須將配置文件的執行程序設置為 kubernetes才能讓Heketi server控制gluster pod(配置文件的默認配置)。除此這些,可以嘗試配置的其他選項。 ```bash $ kubectl create secret generic heketi-config-secret --from-file=./heketi.json ``` * 接下來,我們需要部署一個初始(bootstrap)Pod和一個服務來訪問該Pod。在你用git克隆的repo中,會有一個heketi-bootstrap.json文件。 提交文件并驗證一切正常運行,如下所示: ```bash # kubectl create -f heketi-bootstrap.json service "deploy-heketi" created deployment "deploy-heketi" created # kubectl get pods NAME READY STATUS RESTARTS AGE deploy-heketi-1211581626-2jotm 1/1 Running 0 35m glusterfs-ip-172-20-0-217.ec2.internal-1217067810-4gsvx 1/1 Running 0 1h glusterfs-ip-172-20-0-218.ec2.internal-2001140516-i9dw9 1/1 Running 0 1h glusterfs-ip-172-20-0-219.ec2.internal-2785213222-q3hba 1/1 Running 0 1h ``` * 當Bootstrap heketi服務正在運行,我們配置端口轉發,以便我們可以使用Heketi CLI與服務進行通信。使用heketi pod的名稱,運行下面的命令: `kubectl port-forward deploy-heketi-1211581626-2jotm :8080` 如果在運行命令的系統上本地端口8080是空閑的,則可以運行port-forward命令,以便綁定到8080以方便使用(2個命令二選一即可,我選擇第二個): `kubectl port-forward deploy-heketi-1211581626-2jotm 8080:8080` 現在通過對Heketi服務運行示例查詢來驗證端口轉發是否正常。該命令應該已經打印了將從其轉發的本地端口。將其合并到URL中以測試服務,如下所示: ```bash curl http://localhost:8080/hello Handling connection for 8080 Hello from heketi ``` 最后,為Heketi CLI客戶端設置一個環境變量,以便它知道Heketi服務器的地址。 `export HEKETI_CLI_SERVER=http://localhost:8080` * 接下來,我們將向Heketi提供有關要管理的GlusterFS集群的信息。通過拓撲文件提供這些信息。克隆的repo中有一個示例拓撲文件,名為topology-sample.json。拓撲指定運行GlusterFS容器的Kubernetes節點以及每個節點的相應原始塊設備。 確保hostnames/manage指向如下所示的確切名稱kubectl get nodes得到的主機名(如ubuntu-1),并且hostnames/storage是存儲網絡的IP地址(對應ubuntu-1的ip地址)。 **IMPORTANT**: 重要提示,目前,必須使用與服務器版本匹配的Heketi-cli版本加載拓撲文件。另外,Heketi pod 帶有可以通過 `kubectl exec ...`訪問的heketi-cli副本。 修改拓撲文件以反映您所做的選擇,然后如下所示部署它(修改主機名,IP,block 設備的名稱 如xvdg): ```bash heketi-client/bin/heketi-cli topology load --json=topology-sample.json Handling connection for 57598 Found node ip-172-20-0-217.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2 Adding device /dev/xvdg ... OK Found node ip-172-20-0-218.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2 Adding device /dev/xvdg ... OK Found node ip-172-20-0-219.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2 Adding device /dev/xvdg ... OK ``` * 接下來,我們將使用heketi為其存儲其數據庫提供一個卷(不要懷疑,就是使用這個命令,openshift和kubernetes通用,此命令生成heketi-storage.json文件): ```bash # heketi-client/bin/heketi-cli setup-openshift-heketi-storage # kubectl create -f heketi-storage.json ``` > Pitfall: 注意,如果在運行setup-openshift-heketi-storage子命令時heketi-cli報告“無空間”錯誤,則可能無意中運行topology load命令的時候服務端和heketi-cli的版本不匹配造成的。停止正在運行的heketi pod(kubectl scale deployment deploy-heketi --replicas=0),手動刪除存儲塊設備中的任何簽名,然后繼續運行heketi pod(kubectl scale deployment deploy-heketi --replicas=1)。然后用匹配版本的heketi-cli重新加載拓撲,然后重試該步驟。 * 等到作業完成后,刪除bootstrap Heketi實例相關的組件: ```bash # kubectl delete all,service,jobs,deployment,secret --selector="deploy-heketi" ``` * 創建長期使用的Heketi實例(存儲持久化的): ```bash # kubectl create -f heketi-deployment.json service "heketi" created deployment "heketi" created ``` * 這樣做了以后,heketi db將使用GlusterFS卷,并且每當heketi pod重新啟動時都不會重置(數據不會丟失,存儲持久化)。 使用諸如heketi-cli cluster list和的命令heketi-cli volume list 來確認先前建立的集群存在,并且heketi可以列出在bootstrap階段創建的db存儲卷。 # 使用樣例 有兩種方法來調配存儲。常用的方法是設置一個StorageClass,讓Kubernetes為提交的PersistentVolumeClaim自動配置存儲。或者,可以通過Kubernetes手動創建和管理卷(PVs),或直接使用heketi-cli中的卷。 參考[gluster-kubernetes hello world example](https://github.com/gluster/gluster-kubernetes/blob/master/docs/examples/hello_world/README.md) 獲取關于 storageClass 的更多信息. # 我的示例(非翻譯部分內容) * topology文件:我的例子(3個節點,ubuntu-1(192.168.5.191),ubuntu-2(192.168.5.192),ubuntu-3(192.168.5.193),每個節點2個磁盤用來做存儲(sdb,sdc)) ```bash # cat topology-sample.json ``` ```json { "clusters": [ { "nodes": [ { "node": { "hostnames": { "manage": [ "ubuntu-1" ], "storage": [ "192.168.5.191" ] }, "zone": 1 }, "devices": [ "/dev/sdb", "/dev/sdc" ] }, { "node": { "hostnames": { "manage": [ "ubuntu-2" ], "storage": [ "192.168.5.192" ] }, "zone": 1 }, "devices": [ "/dev/sdb", "/dev/sdc" ] }, { "node": { "hostnames": { "manage": [ "ubuntu-3" ], "storage": [ "192.168.5.193" ] }, "zone": 1 }, "devices": [ "/dev/sdb", "/dev/sdc" ] } ] } ] } ``` * 確認glusterfs和heketi的pod運行正常 ```bash # kubectl get pod NAME READY STATUS RESTARTS AGE glusterfs-gf5zc 1/1 Running 2 8h glusterfs-ngc55 1/1 Running 2 8h glusterfs-zncjs 1/1 Running 0 2h heketi-5c8ffcc756-x9gnv 1/1 Running 5 7h ``` * StorageClass yaml文件示例 ```bash # cat storage-class-slow.yaml ``` ```yaml apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: slow #-------------SC的名字 provisioner: kubernetes.io/glusterfs parameters: resturl: "http://10.103.98.75:8080" #-------------heketi service的cluster ip 和端口 restuser: "admin" #-------------隨便填,因為沒有啟用鑒權模式 gidMin: "40000" gidMax: "50000" volumetype: "replicate:3" #-------------申請的默認為3副本模式 ``` * PVC舉例 ```bash # cat pvc-sample.yaml ``` ```yaml kind: PersistentVolumeClaim apiVersion: v1 metadata: name: myclaim annotations: volume.beta.kubernetes.io/storage-class: "slow" #-------------sc的名字,需要與storageclass的名字一致 spec: accessModes: - ReadWriteOnce resources: requests: storage: 1Gi ``` 查看創建的pvc和pv ```bash # kubectl get pvc|grep myclaim NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE myclaim Bound pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO slow 28s # kubectl get pv|grep myclaim NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO Delete Bound default/myclaim slow 1m ``` * 可以將slow的sc設置為默認,這樣平臺分配存儲的時候可以自動從glusterfs集群分配pv ```bash # kubectl patch storageclass slow -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}' storageclass.storage.k8s.io "slow" patched # kubectl get sc NAME PROVISIONER AGE default fuseim.pri/ifs 1d slow (default) kubernetes.io/glusterfs 6h ``` # 容量限額測試 已經通過Helm 部署的一個mysql2 實例,使用存儲2G,信息查看如下: ```bash # helm list NAME REVISION UPDATED STATUS CHART NAMESPACE mysql2 1 Thu Apr 12 15:27:11 2018 DEPLOYED mysql-0.3.7 default ``` 查看PVC和PV,大小2G,mysql2-mysql ```bash # kubectl get pvc NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE mysql2-mysql Bound pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO slow 19h # kubectl get pv NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO Delete Bound default/mysql2-mysql slow 19h ``` 查看mysql的pod ```bash # kubectl get pod|grep mysql2 mysql2-mysql-56d64f5b77-j2v84 1/1 Running 2 19h ``` 進入mysql所在容器 ```bash # kubectl exec -it mysql2-mysql-56d64f5b77-j2v84 /bin/bash ``` 查看掛載路徑,查看掛載信息 ```bash root@mysql2-mysql-56d64f5b77-j2v84:/#cd /var/lib/mysql root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h Filesystem Size Used Avail Use% Mounted on none 48G 9.2G 37G 21% / tmpfs 1.5G 0 1.5G 0% /dev tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup /dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts shm 64M 0 64M 0% /dev/shm 192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G 264M 1.8G 13% /var/lib/mysql tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount tmpfs 1.5G 0 1.5G 0% /sys/firmware ``` 使用dd寫入數據,寫入一段時間以后,空間滿了,會報錯(報錯信息有bug,不是報空間滿了,而是報文件系統只讀,應該是glusterfs和docker配合的問題) ```bash root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# dd if=/dev/zero of=test.img bs=8M count=300 dd: error writing 'test.img': Read-only file system dd: closing output file 'test.img': Input/output error ``` 查看寫滿以后的文件大小 ```bash root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# ls -l total 2024662 -rw-r----- 1 mysql mysql 56 Apr 12 07:27 auto.cnf -rw-r----- 1 mysql mysql 1329 Apr 12 07:27 ib_buffer_pool -rw-r----- 1 mysql mysql 50331648 Apr 12 12:05 ib_logfile0 -rw-r----- 1 mysql mysql 50331648 Apr 12 07:27 ib_logfile1 -rw-r----- 1 mysql mysql 79691776 Apr 12 12:05 ibdata1 -rw-r----- 1 mysql mysql 12582912 Apr 12 12:05 ibtmp1 drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 mysql drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 performance_schema drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 sys -rw-r--r-- 1 root mysql 1880887296 Apr 13 02:47 test.img ``` 查看掛載信息(掛載信息顯示bug,應該是glusterfs的bug) ```bash root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h Filesystem Size Used Avail Use% Mounted on none 48G 9.2G 37G 21% / tmpfs 1.5G 0 1.5G 0% /dev tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup /dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts shm 64M 0 64M 0% /dev/shm 192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G -16E 0 100% /var/lib/mysql tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount tmpfs 1.5G 0 1.5G 0% /sys/firmware ``` 查看文件夾大小,為2G ```bash # du -h 25M ./mysql 825K ./performance_schema 496K ./sys 2.0G . ``` 如上說明glusterfs的限額作用是起效的,限制在2G的空間大小。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看