<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                [TOC] # partition是干嘛的 是做數據分組策略的 # partition分組策略 hashpartition默認實現 期望數據平均分配到多個partition上 # 設置副本數 每一個partition我們都可以為他設置一個副本數,解決某個borker掛掉的數據丟失問題 # 設置了多個副本,生產數據的時候,發給那個partition? 會從多個副本中選出一個leader,由leader接收,并由leader提供數據消耗 由leader提供完整的數據同步到下面的slave 消費數據的時候也找leader leader提供數據寫入和數據讀取服務 # 圖解 下圖的topic創建了4個分片,每個分片有2個副本 ![](https://box.kancloud.cn/b289647213548a9fff39f2b9c52cf3ee_774x499.png) 1. 連接broker-list中任意一臺broker服務器 ~~~ metadata.broker.list ~~~ 2. 發送數據時,需要知道topic對應的partition個數及leader所在節點 解決:由borker提供,每一個broker都能提供一份元數據信息,包含哪些broker是存活,那個topic有多少分片,那個分片是leader 3. 數據生產 數據發送到那個分片的leader是由producer的代碼指定的 輪詢,隨機,hash等等策略.默認hashpartition 4. 數據通過socket連接,直接發送到partition所在的broker # 自定義分區 ## 過時API 義一個類實現Partitioner接口,重寫里面的方法 ~~~ import java.util.Map; import kafka.producer.Partitioner; public class CustomPartitioner implements Partitioner { public CustomPartitioner() { super(); } @Override public int partition(Object key, int numPartitions) { // 控制分區 return 0; } } ~~~ 然后我們生產數據的時候指定這個分區策略 ~~~ Properties props = new Properties(); /* * 可選配置,如果不配置,則使用默認的partitioner partitioner.class * 默認值:kafka.producer.DefaultPartitioner * 用來把消息分到各個partition中,默認行為是對key進行hash。 */ props.put("partitioner.class", "com.jdxia.kafka.MyLogPartitioner"); //props.put("partitioner.class", "kafka.producer.DefaultPartitioner"); ~~~ ## 新API ~~~ import org.apache.kafka.clients.producer.Partitioner; import org.apache.kafka.common.Cluster; import java.util.Map; public class CustomPartitioner implements Partitioner { @Override public int partition(String s, Object o, byte[] bytes, Object o1, byte[] bytes1, Cluster cluster) { //控制分區 return 0; } @Override public void close() { } @Override public void configure(Map<String, ?> map) { } } ~~~ # Consumer與topic關系 本質上kafka只支持Topic; * 每個group中可以有多個consumer,每個consumer屬于一個consumer group; 通常情況下,一個group中會包含多個consumer,這樣不僅可以提高topic中消息的并發消費能力,而且還能提高"故障容錯"性,如果group中的某個consumer失效那么其消費的partitions將會有其他consumer自動接管。 * 對于Topic中的一條特定的消息,只會被訂閱此Topic的每個group中的其中一個consumer消費,此消息不會發送給一個group的多個consumer; 那么一個group中所有的consumer將會交錯的消費整個Topic,每個group中consumer消息消費互相獨立,我們可以認為一個group是一個"訂閱"者。 * 在kafka中,一個partition中的消息只會被group中的一個consumer消費(**同一時刻**); 一個Topic中的每個partions,只會被一個"訂閱者"中的一個consumer消費,不過一個consumer可以同時消費多個partitions中的消息。 * kafka的設計原理決定,對于一個topic,同一個group中不能有多于partitions個數的consumer同時消費,否則將意味著某些consumer將無法得到消息。 **kafka只能保證一個partition中的消息被某個consumer消費時是順序的;事實上,從Topic角度來說,當有多個partitions時,消息仍不是全局有序的** # kafka消息的分發 **Producer客戶端負責消息的分發** * kafka集群中的任何一個broker都可以向producer提供metadata信息,這些metadata中包含"集群中存活的servers列表"/"partitions leader列表"等信息; * 當producer獲取到metadata信息之后, producer將會和Topic下所有partition leader保持socket連接; * 消息由producer直接通過socket發送到broker,中間不會經過任何"路由層",事實上,消息被路由到哪個partition上由producer客戶端決定; 比如可以采用"random""key-hash""輪詢"等,如果一個topic中有多個partitions,那么在producer端實現"消息均衡分發"是必要的。 * 在producer端的配置文件中,開發者可以指定partition路由的方式。 Producer消息發送的應答機制 設置發送數據是否需要服務端的反饋,有三個值0,1,-1 0: producer不會等待broker發送ack 1: 當leader接收到消息之后發送ack -1: 當所有的follower都同步消息成功后發送ack ~~~ request.required.acks=0 ~~~ # Consumer的負載均衡 當一個group中,有consumer加入或者離開時,會觸發partitions均衡.均衡的最終目的,是提升topic的并發消費能力,步驟如下: 1. 假如topic1,具有如下partitions: P0,P1,P2,P3 2. 加入group中,有如下consumer: C1,C2 3. 首先根據partition索引號對partitions排序: P0,P1,P2,P3 4. 根據consumer.id排序: C0,C1 5. 計算倍數: M = [P0,P1,P2,P3].size / [C0,C1].size,本例值M=2(向上取整) 6. 然后依次分配partitions: `C0 = [P0,P1]`,`C1=[P2,P3]`,即`Ci = [P(i * M),P((i + 1) * M -1)]` # kafka文件存儲機制 ## Kafka文件存儲基本結構 * 在Kafka文件存儲中,同一個topic下有多個不同partition,每個partition為一個目錄,partiton命名規則為topic名稱+有序序號,第一個partiton序號從0開始,序號最大值為partitions數量減1,和數組索引一樣。 * 每個partion(目錄)相當于一個巨型文件被平均分配到多個大小相等segment(段)數據文件中。**但每個段segment file消息數量不一定相等**,這種特性方便old segment file快速被刪除。默認保留7天的數據。 ![](https://box.kancloud.cn/b8db8fc02c6e0e0b578eb9170966da49_495x240.png) * 每個partiton只需要支持順序讀寫就行了,segment文件生命周期由服務端配置參數決定。(什么時候創建,什么時候刪除) ![](https://box.kancloud.cn/613a40aaf7cf1d2848deb294ece2e857_533x270.png) ## Kafka Partition Segment * Segment file組成:由2大部分組成,分別為index file和data file,此2個文件一一對應,成對出現,后綴".index"和“.log”分別表示為segment索引文件、數據文件。 ![](https://box.kancloud.cn/52fcc7b7d7205d4228de1c0dddc4eee1_401x265.png) * Segment文件命名規則:partion全局的第一個segment從0開始,后續每個segment文件名為上一個segment文件最后一條消息的offset值。數值最大為64位long大小,19位數字字符長度,沒有數字用0填充。 * 索引文件存儲大量元數據,數據文件存儲大量消息,索引文件中元數據指向對應數據文件中message的物理偏移地址。 ![](https://box.kancloud.cn/56dc446ef40a3abf4c0844ffaad3044e_513x304.png) 3, 497:當前log文件中的第幾條信息,存放在磁盤上的那個地方 上述圖中索引文件存儲大量元數據,數據文件存儲大量消息,索引文件中元數據指向對應數據文件中message的物理偏移地址。 其中以索引文件中元數據3, 497為例,依次在數據文件中表示第3個message(在全局partiton表示第368772個message)、以及該消息的物理偏移地址為497。 * segment data file由許多message組成,物理地址如下 | 關鍵字 | 解釋說明 | --- | --- | | 8 byte offset | 在parition(分區)內的每條消息都有一個有序的id號,這個id號被稱為偏移(offset),它可以唯一確定每條消息在parition(分區)內的位置。即offset表示partiion的第多少message | 4 byte message size| message大小 | 4 byte CRC32| 用crc32校驗message | 1 byte “magic"| 表示本次發布Kafka服務程序協議版本號 | 1 byte “attributes"| 表示為獨立版本、或標識壓縮類型、或編碼類型。 | 4 byte key length | 表示key的長度,當key為-1時,K byte key字段不填 | K byte key | 可選 | value bytes payload | 表示實際消息數據。 ## kafka查找message 讀取offset=368776的message,需要通過下面2個步驟查找 ![](https://box.kancloud.cn/1df52471aef03e2e0c5d3e2b357d5072_401x273.png) ### 查找segment file 00000000000000000000.index表示最開始的文件,起始偏移量(offset)為0 00000000000000368769.index的消息量起始偏移量為368770 = 368769 + 1 00000000000000737337.index的起始偏移量為737338=737337 + 1 其他后續文件依次類推。 以起始偏移量命名并排序這些文件,只要根據offset **二分查找**文件列表,就可以快速定位到具體文件。當offset=368776時定位到00000000000000368769.index和對應log文件。 ### 通過segment file查找message 當offset=368776時,依次定位到00000000000000368769.index的元數據物理位置和00000000000000368769.log的物理偏移地址 然后再通過00000000000000368769.log順序查找直到offset=368776為止
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看