# Linkerd簡介
> **注意**:Linkerd最初版本是使用Scala開發的,現在已開始開發Linkerd2,使用Go語言開發,該公司的另一款輕量級Service Mesh conduit也壽終正寢,合并入Linkerd 2.0,詳見[Conduit 0.5發布—以及R.I.P. Conduit](http://www.servicemesher.com/blog/rip-conduit/)。
Linkerd是一個用于云原生應用的開源、可擴展的service mesh(一般翻譯成服務網格,還有一種說法叫”服務嚙合層“,見[Istio:用于微服務的服務嚙合層](http://www.infoq.com/cn/news/2017/05/istio))。
## Linkerd是什么
Linkerd的出現是為了解決像twitter、google這類超大規模生產系統的復雜性問題。Linkerd不是通過控制服務之間的通信機制來解決這個問題,而是通過在服務實例之上添加一個抽象層來解決的。

Linkerd負責跨服務通信中最困難、易出錯的部分,包括延遲感知、負載平衡、連接池、TLS、儀表盤、請求路由等——這些都會影響應用程序伸縮性、性能和彈性。
## 如何運行
Linkerd作為獨立代理運行,無需特定的語言和庫支持。應用程序通常會在已知位置運行linkerd實例,然后通過這些實例代理服務調用——即不是直接連接到目標服務,服務連接到它們對應的linkerd實例,并將它們視為目標服務。
在該層上,linkerd應用路由規則,與現有服務發現機制通信,對目標實例做負載均衡——與此同時調整通信并報告指標。
通過延遲調用linkerd的機制,應用程序代碼與以下內容解耦:
- 生產拓撲
- 服務發現機制
- 負載均衡和連接管理邏輯
應用程序也將從一致的全局流量控制系統中受益。這對于多語言應用程序尤其重要,因為通過庫來實現這種一致性是非常困難的。
Linkerd實例可以作為sidecar(既為每個應用實體或每個主機部署一個實例)來運行。 由于linkerd實例是無狀態和獨立的,因此它們可以輕松適應現有的部署拓撲。它們可以與各種配置的應用程序代碼一起部署,并且基本不需要去協調它們。
## 詳解
Linkerd 的基于 Kubernetes 的 Service Mesh 部署方式是使用 Kubernetes 中的 **DaemonSet** 資源對象,如下圖所示。

這樣 Kubernetes 集群中的每個節點都會運行一個 Linkerd 的 Pod。
但是這樣做就會有幾個問題:
- 節點上的應用如何發現其所在節點上的 Linkerd 呢?
- 節點間的 Linkerd 如何路由的呢?
- Linkerd 如何將接收到的流量路由到正確的目的應用呢?
- 如何對應用的路有做細粒度的控制?
這幾個問題在 Buoyant 公司的這篇博客中都有解答:[A Service Mesh for Kubernetes, Part II: Pods are great until they’re not](https://buoyant.io/2016/10/14/a-service-mesh-for-kubernetes-part-ii-pods-are-great-until-theyre-not/),我們下面將簡要的回答上述問題。
### 節點上的應用如何發現其所在節點上的 Linkerd 呢?
簡而言之,是使用環境變量的方式,如在應用程序中注入環境變量 `http_proxy`:
```yaml
env:
- name: NODE_NAME
valueFrom:
fieldRef:
fieldPath: spec.nodeName
- name: http_proxy
value: $(NODE_NAME):4140
args:
- "-addr=:7777"
- "-text=Hello"
- "-target=world"
```
這要求應用程序必須支持該環境變量,為應用程序所在的 Pod 設置了一個代理,實際上對于每種不同的協議 Linkerd 都監聽不同的端口。
- 4140 for HTTP
- 4240 for HTTP/2
- 4340 for gRPC
關于 Linkerd 作為 Service Mesh 的詳細配置請參考 [serivcemesh.yml](https://github.com/rootsongjc/kubernetes-handbook/blob/master/manifests/linkerd/servicemesh.yml)。
### 節點間的 Linkerd 如何路由的以及 Linkerd 如何將接收到的流量路由到正確的目的應用呢?
通過 **transformer** 來確定節點間的 Linkerd 路由,參考下面的配置:
```yaml
routers:
- protocol: http
label: outgoing
interpreter:
kind: default
transformers:
- kind: io.l5d.k8s.daemonset
namespace: default
port: incoming
service: l5d
```
Router 定義 Linkerd 如何實際地處理流量。Router 監聽請求并在這些請求上應用路有規則,代理這些請求到正確的目的地。Router 是與協議相關的。對于每個 Router 都需要定義一個 incoming router 和一個 outcoming router。預計該應用程序將流量發送到 outcoming router,該 outcoming router 將其代理到目標服務節點上運行的 Linkerd 的 incoming router。Incoming router 后將請求代理給目標應用程序本身。我們還定義了 HTTP 和 HTTP/2 incoming router,它們充當 Ingress controller 并基于 Ingress 資源進行路由。
### 如何對路由規則做細粒度的控制呢?
路由規則配置是在 namerd 中進行的,例如:
```ini
$ namerctl dtab get internal
# version MjgzNjk5NzI=
/srv => /#/io.l5d.k8s/default/http ;
/host => /srv ;
/tmp => /srv ;
/svc => /host ;
/host/world => /srv/world-v1 ;
```
Namerd 中存儲了很多 dtab 配置,通過這些配置來管理路有規則,實現微服務的流量管理。

如果將 Linkerd 作為*邊緣節點*還可以充當 Ingress controller,如下圖所示。

Linkerd 自己最令人稱道的是它在每臺主機上只安裝一個 Pod,如果使用 Sidecar 模式會為每個應用程序示例旁都運行一個容器,這樣會導致過多的資源消耗。[Squeezing blood from a stone: small-memory JVM techniques for microservice sidecars](https://buoyant.io/2016/06/17/small-memory-jvm-techniques-for-microservice-sidecars/) 這篇文章中詳細說明了 Linkerd 的資源消耗與性能。
## 參考
- [A Service Mesh for Kubernetes, Part II: Pods are great until they’re not](https://buoyant.io/2016/10/14/a-service-mesh-for-kubernetes-part-ii-pods-are-great-until-theyre-not/)
- [Squeezing blood from a stone: small-memory JVM techniques for microservice sidecars](https://buoyant.io/2016/06/17/small-memory-jvm-techniques-for-microservice-sidecars/)
- [Buoyant發布服務網格Linkerd的1.0版本](http://www.infoq.com/cn/news/2017/05/buoyant-release-ver-1-of-linkerd)
- [Linkerd documentation](https://linkerd.io/documentation/)
- [Istio:用于微服務的服務嚙合層](http://www.infoq.com/cn/news/2017/05/istio)
- 序言
- 云原生
- 云原生(Cloud Native)的定義
- CNCF - 云原生計算基金會簡介
- CNCF章程
- 云原生的設計哲學
- Play with Kubernetes
- 快速部署一個云原生本地實驗環境
- Kubernetes與云原生應用概覽
- 云原生應用之路——從Kubernetes到Cloud Native
- 云原生編程語言
- 云原生編程語言Ballerina
- 云原生編程語言Pulumi
- 云原生的未來
- Kubernetes架構
- 設計理念
- Etcd解析
- 開放接口
- CRI - Container Runtime Interface(容器運行時接口)
- CNI - Container Network Interface(容器網絡接口)
- CSI - Container Storage Interface(容器存儲接口)
- Kubernetes中的網絡
- Kubernetes中的網絡解析——以flannel為例
- Kubernetes中的網絡解析——以calico為例
- 具備API感知的網絡和安全性管理開源軟件Cilium
- Cilium架構設計與概念解析
- 資源對象與基本概念解析
- Pod狀態與生命周期管理
- Pod概覽
- Pod解析
- Init容器
- Pause容器
- Pod安全策略
- Pod的生命周期
- Pod Hook
- Pod Preset
- Pod中斷與PDB(Pod中斷預算)
- 集群資源管理
- Node
- Namespace
- Label
- Annotation
- Taint和Toleration(污點和容忍)
- 垃圾收集
- 控制器
- Deployment
- StatefulSet
- DaemonSet
- ReplicationController和ReplicaSet
- Job
- CronJob
- Horizontal Pod Autoscaling
- 自定義指標HPA
- 準入控制器(Admission Controller)
- 服務發現
- Service
- Ingress
- Traefik Ingress Controller
- 身份與權限控制
- ServiceAccount
- RBAC——基于角色的訪問控制
- NetworkPolicy
- 存儲
- Secret
- ConfigMap
- ConfigMap的熱更新
- Volume
- Persistent Volume(持久化卷)
- Storage Class
- 本地持久化存儲
- 集群擴展
- 使用自定義資源擴展API
- 使用CRD擴展Kubernetes API
- Aggregated API Server
- APIService
- Service Catalog
- 資源調度
- QoS(服務質量等級)
- 用戶指南
- 資源對象配置
- 配置Pod的liveness和readiness探針
- 配置Pod的Service Account
- Secret配置
- 管理namespace中的資源配額
- 命令使用
- Docker用戶過度到kubectl命令行指南
- kubectl命令概覽
- kubectl命令技巧大全
- 使用etcdctl訪問kubernetes數據
- 集群安全性管理
- 管理集群中的TLS
- kubelet的認證授權
- TLS bootstrap
- 創建用戶認證授權的kubeconfig文件
- IP偽裝代理
- 使用kubeconfig或token進行用戶身份認證
- Kubernetes中的用戶與身份認證授權
- Kubernetes集群安全性配置最佳實踐
- 訪問Kubernetes集群
- 訪問集群
- 使用kubeconfig文件配置跨集群認證
- 通過端口轉發訪問集群中的應用程序
- 使用service訪問群集中的應用程序
- 從外部訪問Kubernetes中的Pod
- Cabin - Kubernetes手機客戶端
- Kubernetic - Kubernetes桌面客戶端
- Kubernator - 更底層的Kubernetes UI
- 在Kubernetes中開發部署應用
- 適用于kubernetes的應用開發部署流程
- 遷移傳統應用到Kubernetes中——以Hadoop YARN為例
- 最佳實踐概覽
- 在CentOS上部署Kubernetes集群
- 創建TLS證書和秘鑰
- 創建kubeconfig文件
- 創建高可用etcd集群
- 安裝kubectl命令行工具
- 部署master節點
- 安裝flannel網絡插件
- 部署node節點
- 安裝kubedns插件
- 安裝dashboard插件
- 安裝heapster插件
- 安裝EFK插件
- 生產級的Kubernetes簡化管理工具kubeadm
- 使用kubeadm在Ubuntu Server 16.04上快速構建測試集群
- 服務發現與負載均衡
- 安裝Traefik ingress
- 分布式負載測試
- 網絡和集群性能測試
- 邊緣節點配置
- 安裝Nginx ingress
- 安裝配置DNS
- 安裝配置Kube-dns
- 安裝配置CoreDNS
- 運維管理
- Master節點高可用
- 服務滾動升級
- 應用日志收集
- 配置最佳實踐
- 集群及應用監控
- 數據持久化問題
- 管理容器的計算資源
- 集群聯邦
- 存儲管理
- GlusterFS
- 使用GlusterFS做持久化存儲
- 使用Heketi作為Kubernetes的持久存儲GlusterFS的external provisioner
- 在OpenShift中使用GlusterFS做持久化存儲
- GlusterD-2.0
- Ceph
- 用Helm托管安裝Ceph集群并提供后端存儲
- 使用Ceph做持久化存儲
- 使用rbd-provisioner提供rbd持久化存儲
- OpenEBS
- 使用OpenEBS做持久化存儲
- Rook
- NFS
- 利用NFS動態提供Kubernetes后端存儲卷
- 集群與應用監控
- Heapster
- 使用Heapster獲取集群和對象的metric數據
- Prometheus
- 使用Prometheus監控kubernetes集群
- Prometheus查詢語言PromQL使用說明
- 使用Vistio監控Istio服務網格中的流量
- 分布式跟蹤
- OpenTracing
- 服務編排管理
- 使用Helm管理Kubernetes應用
- 構建私有Chart倉庫
- 持續集成與發布
- 使用Jenkins進行持續集成與發布
- 使用Drone進行持續集成與發布
- 更新與升級
- 手動升級Kubernetes集群
- 升級dashboard
- 領域應用概覽
- 微服務架構
- 微服務中的服務發現
- 使用Java構建微服務并發布到Kubernetes平臺
- Spring Boot快速開始指南
- Service Mesh 服務網格
- 企業級服務網格架構
- Service Mesh基礎
- Service Mesh技術對比
- 采納和演進
- 定制和集成
- 總結
- Istio
- 安裝并試用Istio service mesh
- 配置請求的路由規則
- 安裝和拓展Istio service mesh
- 集成虛擬機
- Istio中sidecar的注入規范及示例
- 如何參與Istio社區及注意事項
- Istio教程
- Istio免費學習資源匯總
- 深入理解Istio Service Mesh中的Envoy Sidecar注入與流量劫持
- 深入理解Istio Service Mesh中的Envoy Sidecar代理的路由轉發
- Linkerd
- Linkerd 使用指南
- Conduit
- Condiut概覽
- 安裝Conduit
- Envoy
- Envoy的架構與基本術語
- Envoy作為前端代理
- Envoy mesh教程
- SOFAMesh
- SOFAMesh中的Dubbo on x-protocol
- SOFAMosn
- 使用 SOFAMosn 構建 SOFAMesh
- 大數據
- Spark standalone on Kubernetes
- 運行支持Kubernetes原生調度的Spark程序
- Serverless架構
- 理解Serverless
- FaaS-函數即服務
- OpenFaaS快速入門指南
- 邊緣計算
- 人工智能