<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                # Ingress解析 Ingress 是從Kubernetes集群外部訪問集群內部服務的入口,這篇文章部分譯自Kubernetes官方文檔[Ingress Resource](https://kubernetes.io/docs/concepts/services-networking/ingress/),后面的章節會講到使用[Traefik](https://github.com/containous/traefik)來做Ingress controller,文章末尾給出了幾個相關鏈接。 **術語** 在本篇文章中你將會看到一些在其他地方被交叉使用的術語,為了防止產生歧義,我們首先來澄清下。 - 節點:Kubernetes集群中的一臺物理機或者虛擬機。 - 集群:位于Internet防火墻后的節點,這是kubernetes管理的主要計算資源。 - 邊界路由器:為集群強制執行防火墻策略的路由器。 這可能是由云提供商或物理硬件管理的網關。 - 集群網絡:一組邏輯或物理鏈接,可根據Kubernetes[網絡模型](https://kubernetes.io/docs/admin/networking/)實現群集內的通信。 集群網絡的實現包括Overlay模型的 [flannel](https://github.com/coreos/flannel#flannel) 和基于SDN的OVS。 - 服務:使用標簽選擇器標識一組pod成為的Kubernetes[服務](https://kubernetes.io/docs/user-guide/services/)。 除非另有說明,否則服務假定在集群網絡內僅可通過虛擬IP訪問。 ## 什么是Ingress? 通常情況下,service和pod僅可在集群內部網絡中通過IP地址訪問。所有到達邊界路由器的流量或被丟棄或被轉發到其他地方。從概念上講,可能像下面這樣: ``` internet | ------------ [ Services ] ``` Ingress是授權入站連接到達集群服務的規則集合。 ``` internet | [ Ingress ] --|-----|-- [ Services ] ``` 你可以給Ingress配置提供外部可訪問的URL、負載均衡、SSL、基于名稱的虛擬主機等。用戶通過POST Ingress資源到API server的方式來請求ingress。 [Ingress controller](https://kubernetes.io/docs/concepts/services-networking/ingress/#ingress-controllers)負責實現Ingress,通常使用負載平衡器,它還可以配置邊界路由和其他前端,這有助于以HA方式處理流量。 ## 先決條件 在使用Ingress resource之前,有必要先了解下面幾件事情。Ingress是beta版本的resource,在kubernetes1.1之前還沒有。你需要一個`Ingress Controller`來實現`Ingress`,單純的創建一個`Ingress`沒有任何意義。 GCE/GKE會在master節點上部署一個ingress controller。你可以在一個pod中部署任意個自定義的ingress controller。你必須正確地annotate每個ingress,比如 [運行多個ingress controller](https://git.k8s.io/ingress#running-multiple-ingress-controllers) 和 [關閉glbc](https://git.k8s.io/ingress-gce/BETA_LIMITATIONS.md#disabling-glbc). 確定你已經閱讀了Ingress controller的[beta版本限制](https://github.com/kubernetes/ingress-gce/blob/master/BETA_LIMITATIONS.md#glbc-beta-limitations)。在非GCE/GKE的環境中,你需要在pod中[部署一個controller](https://git.k8s.io/ingress-nginx/README.md)。 ## Ingress Resource 最簡化的Ingress配置: ```yaml 1: apiVersion: extensions/v1beta1 2: kind: Ingress 3: metadata: 4: name: test-ingress 5: spec: 6: rules: 7: - http: 8: paths: 9: - path: /testpath 10: backend: 11: serviceName: test 12: servicePort: 80 ``` *如果你沒有配置Ingress controller就將其POST到API server不會有任何用處* **配置說明** **1-4行**:跟Kubernetes的其他配置一樣,ingress的配置也需要`apiVersion`,`kind`和`metadata`字段。配置文件的詳細說明請查看[部署應用](https://kubernetes.io/docs/user-guide/deploying-applications), [配置容器](https://kubernetes.io/docs/user-guide/configuring-containers)和 [使用resources](https://kubernetes.io/docs/user-guide/working-with-resources). **5-7行**: Ingress [spec](https://github.com/kubernetes/community/blob/master/contributors/devel/api-conventions.md#spec-and-status) 中包含配置一個loadbalancer或proxy server的所有信息。最重要的是,它包含了一個匹配所有入站請求的規則列表。目前ingress只支持http規則。 **8-9行**:每條http規則包含以下信息:一個`host`配置項(比如for.bar.com,在這個例子中默認是*),`path`列表(比如:/testpath),每個path都關聯一個`backend`(比如test:80)。在loadbalancer將流量轉發到backend之前,所有的入站請求都要先匹配host和path。 **10-12行**:正如 [services doc](https://kubernetes.io/docs/user-guide/services)中描述的那樣,backend是一個`service:port`的組合。Ingress的流量被轉發到它所匹配的backend。 **全局參數**:為了簡單起見,Ingress示例中沒有全局參數,請參閱資源完整定義的[api參考](https://releases.k8s.io/master/staging/src/k8s.io/api/extensions/v1beta1/types.go)。 在所有請求都不能跟spec中的path匹配的情況下,請求被發送到Ingress controller的默認后端,可以指定全局缺省backend。 ## Ingress controllers 為了使Ingress正常工作,集群中必須運行Ingress controller。 這與其他類型的控制器不同,其他類型的控制器通常作為`kube-controller-manager`二進制文件的一部分運行,在集群啟動時自動啟動。 你需要選擇最適合自己集群的Ingress controller或者自己實現一個。 - kubernetes當前支持并維護[GCE](https://git.k8s.io/ingress-gce/README.md)和[nginx](https://git.k8s.io/ingress-nginx/README.md)兩種controller. - F5(公司)[支持并維護](https://support.f5.com/csp/article/K86859508) [F5 BIG-IP Controller for Kubernetes](http://clouddocs.f5.com/products/connectors/k8s-bigip-ctlr/latest). - [Kong](https://konghq.com/) 同時支持并維護[社區版](https://discuss.konghq.com/c/kubernetes)與[企業版](https://konghq.com/api-customer-success/)的 [Kong Ingress Controller for Kubernetes](https://konghq.com/blog/kubernetes-ingress-controller-for-kong/). - [Traefik](https://github.com/containous/traefik) 是功能齊全的 ingress controller([Let’s Encrypt](https://letsencrypt.org/), secrets, http2, websocket…), [Containous](https://containo.us/services) 也對其提供商業支持。 - [Istio](https://istio.io/zh) 使用CRD Gateway來[控制Ingress流量](https://istio.io/zh/docs/tasks/traffic-management/ingress/)。 ## 在你開始前 以下文檔描述了Ingress資源中公開的一組跨平臺功能。 理想情況下,所有的Ingress controller都應該符合這個規范,但是我們還沒有實現。 GCE和nginx控制器的文檔分別在[這里](https://git.k8s.io/ingress-gce/README.md)和[這里](https://git.k8s.io/ingress-nginx/README.md)。如果您使用F5 BIG-IP controller, 請參看[這里](http://clouddocs.f5.com/containers/latest/kubernetes/kctlr-k8s-ingress-ctlr.html). **確保您查看控制器特定的文檔,以便您了解每個文檔的注意事項。** ## Ingress類型 ### 單Service Ingress Kubernetes中已經存在一些概念可以暴露單個service(查看[替代方案](https://kubernetes.io/docs/concepts/services-networking/ingress/#alternatives)),但是你仍然可以通過Ingress來實現,通過指定一個沒有rule的默認backend的方式。 ingress.yaml定義文件: ```yaml apiVersion: extensions/v1beta1 kind: Ingress metadata: name: test-ingress spec: backend: serviceName: testsvc servicePort: 80 ``` 使用`kubectl create -f`命令創建,然后查看ingress: ```bash $ kubectl get ing NAME RULE BACKEND ADDRESS test-ingress - testsvc:80 107.178.254.228 ``` `107.178.254.228`就是Ingress controller為了實現Ingress而分配的IP地址。`RULE`列表示所有發送給該IP的流量都被轉發到了`BACKEND`所列的Kubernetes service上。 ### 簡單展開 如前面描述的那樣,kubernetes pod中的IP只在集群網絡內部可見,我們需要在邊界設置一個東西,讓它能夠接收ingress的流量并將它們轉發到正確的端點上。這個東西一般是高可用的loadbalancer。使用Ingress能夠允許你將loadbalancer的個數降低到最少,例如,假如你想要創建這樣的一個設置: ``` foo.bar.com -> 178.91.123.132 -> / foo s1:80 / bar s2:80 ``` 你需要一個這樣的ingress: ```yaml apiVersion: extensions/v1beta1 kind: Ingress metadata: name: test spec: rules: - host: foo.bar.com http: paths: - path: /foo backend: serviceName: s1 servicePort: 80 - path: /bar backend: serviceName: s2 servicePort: 80 ``` 使用`kubectl create -f`創建完ingress后: ```bash $ kubectl get ing NAME RULE BACKEND ADDRESS test - foo.bar.com /foo s1:80 /bar s2:80 ``` 只要服務(s1,s2)存在,Ingress controller就會將提供一個滿足該Ingress的特定loadbalancer實現。 這一步完成后,您將在Ingress的最后一列看到loadbalancer的地址。 ### 基于名稱的虛擬主機 Name-based的虛擬主機在同一個IP地址下擁有多個主機名。 ``` foo.bar.com --| |-> foo.bar.com s1:80 | 178.91.123.132 | bar.foo.com --| |-> bar.foo.com s2:80 ``` 下面這個ingress說明基于[Host header](https://tools.ietf.org/html/rfc7230#section-5.4)的后端loadbalancer的路由請求: ```yaml apiVersion: extensions/v1beta1 kind: Ingress metadata: name: test spec: rules: - host: foo.bar.com http: paths: - backend: serviceName: s1 servicePort: 80 - host: bar.foo.com http: paths: - backend: serviceName: s2 servicePort: 80 ``` **默認backend**:一個沒有rule的ingress,如前面章節中所示,所有流量都將發送到一個默認backend。你可以用該技巧通知loadbalancer如何找到你網站的404頁面,通過制定一些列rule和一個默認backend的方式。如果請求header中的host不能跟ingress中的host匹配,并且/或請求的URL不能與任何一個path匹配,則流量將路由到你的默認backend。 ### TLS 你可以通過指定包含TLS私鑰和證書的[secret](https://kubernetes.io/docs/user-guide/secrets)來加密Ingress。 目前,Ingress僅支持單個TLS端口443,并假定TLS termination。 如果Ingress中的TLS配置部分指定了不同的主機,則它們將根據通過SNI TLS擴展指定的主機名(假如Ingress controller支持SNI)在多個相同端口上進行復用。 TLS secret中必須包含名為`tls.crt`和`tls.key`的密鑰,這里面包含了用于TLS的證書和私鑰,例如: ```yaml apiVersion: v1 data: tls.crt: base64 encoded cert tls.key: base64 encoded key kind: Secret metadata: name: testsecret namespace: default type: Opaque ``` 在Ingress中引用這個secret將通知Ingress controller使用TLS加密從將客戶端到loadbalancer的channel: ```yaml apiVersion: extensions/v1beta1 kind: Ingress metadata: name: no-rules-map spec: tls: - secretName: testsecret backend: serviceName: s1 servicePort: 80 ``` 請注意,各種Ingress controller支持的TLS功能之間存在差距。 請參閱有關[nginx](https://git.k8s.io/ingress-nginx/README.md#https),[GCE](https://git.k8s.io/ingress-gce/README.md#frontend-https)或任何其他平臺特定Ingress controller的文檔,以了解TLS在你的環境中的工作原理。 Ingress controller啟動時附帶一些適用于所有Ingress的負載平衡策略設置,例如負載均衡算法,后端權重方案等。更高級的負載平衡概念(例如持久會話,動態權重)尚未在Ingress中公開。 你仍然可以通過service loadbalancer獲取這些功能。 隨著時間的推移,我們計劃將適用于跨平臺的負載平衡模式加入到Ingress資源中。 還值得注意的是,盡管健康檢查不直接通過Ingress公開,但Kubernetes中存在并行概念,例如[準備探查](https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-probes/),可以使你達成相同的最終結果。 請查看特定控制器的文檔,以了解他們如何處理健康檢查([nginx](https://git.k8s.io/ingress-nginx/README.md),[GCE](https://git.k8s.io/ingress-gce/README.md#health-checks))。 ## 更新Ingress 假如你想要向已有的ingress中增加一個新的Host,你可以編輯和更新該ingress: ```Bash $ kubectl get ing NAME RULE BACKEND ADDRESS test - 178.91.123.132 foo.bar.com /foo s1:80 $ kubectl edit ing test ``` 這會彈出一個包含已有的yaml文件的編輯器,修改它,增加新的Host配置。 ```yaml spec: rules: - host: foo.bar.com http: paths: - backend: serviceName: s1 servicePort: 80 path: /foo - host: bar.baz.com http: paths: - backend: serviceName: s2 servicePort: 80 path: /foo .. ``` 保存它會更新API server中的資源,這會觸發ingress controller重新配置loadbalancer。 ```bash $ kubectl get ing NAME RULE BACKEND ADDRESS test - 178.91.123.132 foo.bar.com /foo s1:80 bar.baz.com /foo s2:80 ``` 在一個修改過的ingress yaml文件上調用`kubectl replace -f`命令一樣可以達到同樣的效果。 ## 跨可用域故障 在不同云供應商之間,跨故障域的流量傳播技術有所不同。 有關詳細信息,請查看相關Ingress controller的文檔。 有關在federation集群中部署Ingress的詳細信息,請參閱federation文檔。 ## 未來計劃 - 多樣化的HTTPS/TLS模型支持(如SNI,re-encryption) - 通過聲明來請求IP或者主機名 - 結合L4和L7 Ingress - 更多的Ingress controller 請跟蹤[L7和Ingress的proposal](https://github.com/kubernetes/kubernetes/pull/12827),了解有關資源演進的更多細節,以及[Ingress repository](https://github.com/kubernetes/ingress/tree/master),了解有關各種Ingress controller演進的更多詳細信息。 ## 替代方案 你可以通過很多種方式暴露service而不必直接使用ingress: - 使用[Service.Type=LoadBalancer](https://kubernetes.io/docs/user-guide/services/#type-loadbalancer) - 使用[Service.Type=NodePort](https://kubernetes.io/docs/user-guide/services/#type-nodeport) - 使用[Port Proxy](https://git.k8s.io/contrib/for-demos/proxy-to-service) - 部署一個[Service loadbalancer](https://github.com/kubernetes/contrib/tree/master/service-loadbalancer) 這允許你在多個service之間共享單個IP,并通過Service Annotations實現更高級的負載平衡。 ## 參考 - [Kubernetes Ingress Resource](https://kubernetes.io/docs/concepts/services-networking/ingress/) - [使用NGINX Plus負載均衡Kubernetes服務](http://dockone.io/article/957) - [使用 NGINX 和 NGINX Plus 的 Ingress Controller 進行 Kubernetes 的負載均衡](http://www.cnblogs.com/276815076/p/6407101.html) - [Kubernetes : Ingress Controller with Tr?f?k and Let's Encrypt](https://blog.osones.com/en/kubernetes-ingress-controller-with-traefik-and-lets-encrypt.html) - [Kubernetes : Tr?f?k and Let's Encrypt at scale](https://blog.osones.com/en/kubernetes-traefik-and-lets-encrypt-at-scale.html) - [Kubernetes Ingress Controller-Tr?f?k](https://docs.traefik.io/user-guide/kubernetes/) - [使用Istio控制Ingress流量](https://istio.io/zh/docs/tasks/traffic-management/ingress/)
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看