[TOC]
## HashSet
前面已經說過 HashSet 是對 HashMap 的簡單包裝,對 HashSet 的函數調用都會轉換成合適的 HashMap 方法,因此 HashSet 的實現非常簡單,只有不到 300 行代碼(適配器模式)。這里不再贅述。
~~~java
//HashSet是對HashMap的簡單包裝
public class HashSet<E>
{
......
private transient HashMap<E,Object> map;//HashSet里面有一個HashMap
// Dummy value to associate with an Object in the backing Map
private static final Object PRESENT = new Object();
public HashSet() {
map = new HashMap<>();
}
......
public boolean add(E e) {//簡單的方法轉換
return map.put(e, PRESENT)==null;
}
......
}
~~~
### 1\. 成員變量
首先了解下`HashSet`的成員變量:
~~~java
private transient HashMap<E,Object> map;
// Dummy value to associate with an Object in the backing Map
private static final Object PRESENT = new Object();
~~~
發現主要就兩個變量:
* `map`:用于存放最終數據的。
* `PRESENT`:是所有寫入 map 的`value`值。
### 2\. 構造函數
~~~java
public HashSet() {
map = new HashMap<>();
}
public HashSet(int initialCapacity, float loadFactor) {
map = new HashMap<>(initialCapacity, loadFactor);
}
~~~
構造函數很簡單,利用了`HashMap`初始化了`map`。
### 3\. add()
~~~java
public boolean add(E e) {
return map.put(e, PRESENT)==null;
}
~~~
比較關鍵的就是這個`add()`方法。 可以看出它是將存放的對象當做了`HashMap`的健,`value`都是相同的`PRESENT`。由于`HashMap`的`key`是不能重復的,所以每當有重復的值寫入到`HashSet`時,`value`會被覆蓋,但`key`不會收到影響,這樣就保證了`HashSet`中只能存放不重復的元素。
### 4\. 總結
`HashSet`的原理比較簡單,幾乎全部借助于`HashMap`來實現的。
所以`HashMap`會出現的問題`HashSet`依然不能避免。
## LinkedHashSet and LinkedHashMap
### 1\. 概覽
如果你已看過前面關于 HashSet 和 HashMap,的講解,一定能夠想到本文將要講解的 LinkedHashSet 和 LinkedHashMap 其實也是一回事。 LinkedHashSet 和 LinkedHashMap 在 Java 里也有著相同的實現,前者僅僅是對后者做了一層包裝,也就是說 LinkedHashSet 里面有一個 LinkedHashMap(**適配器模式**)。因此本文將重點分析 LinkedHashMap。
LinkedHashMap 實現了 Map 接口,即允許放入 key 為 null 的元素,也允許插入 value 為 null 的元素。從名字上可以看出該容器是 LinkedList 和 HashMap 的混合體,也就是說它同時滿足 HashMap 和 LinkedList 的某些特性。**可將 LinkedHashMap 看作采用 LinkedList 增強的 HashMap。**
:-: 
事實上 LinkedHashMap 是 HashMap 的直接子類,**二者唯一的區別是 LinkedHashMap 在 HashMap 的基礎上,采用雙向鏈表(doubly-linked list)的形式將所有 entry 連接起來,這樣是為保證元素的迭代順序跟插入順序相同**。上圖給出了 LinkedHashMap 的結構圖,主體部分跟 HashMap 完全一樣,多了`header`指向雙向鏈表的頭部(是一個啞元),**該雙向鏈表的迭代順序就是 entry 的插入順序**。
除了可以保迭代歷順序,這種結構還有一個好處:**迭代 LinkedHashMap 時不需要像 HashMap 那樣遍歷整個table,而只需要直接遍歷 header 指向的雙向鏈表即可**,也就是說 LinkedHashMap 的迭代時間就只跟`entry`的個數相關,而跟`table`的大小無關。
有兩個參數可以影響 LinkedHashMap 的性能:**初始容量**(inital capacity)和**負載系數**(load factor)。初始容量指定了初始`table`的大小,負載系數用來指定自動擴容的臨界值。當`entry`的數量超過`capacity*load_factor`時,容器將自動擴容并重新哈希。對于插入元素較多的場景,將初始容量設大可以減少重新哈希的次數。
將對象放入到 LinkedHashMap 或 LinkedHashSet 中時,有兩個方法需要特別關心:`hashCode()`和`equals()`。**hashCode() 方法決定了對象會被放到哪個 bucket 里,當多個對象的哈希值沖突時,equals() 方法決定了這些對象是否是“同一個對象”**。所以,如果要將自定義的對象放入到`LinkedHashMap`或`LinkedHashSet`中,需要*@Override*`hashCode()`和`equals()`方法。
通過如下方式可以得到一個跟源 Map 迭代順序 一樣的 LinkedHashMap:
~~~java
void foo(Map m) {
Map copy = new LinkedHashMap(m);
...
}
~~~
出于性能原因,LinkedHashMap 是非同步的(not synchronized),如果需要在多線程環境使用,需要程序員手動同步;或者通過如下方式將 LinkedHashMap 包裝成(wrapped)同步的:
`Map m = Collections.synchronizedMap(new LinkedHashMap(...));`
### 2\. get()
`get(Object key)`方法根據指定的`key`值返回對應的`value`。該方法跟`HashMap.get()`方法的流程幾乎完全一樣,讀者可自行[參考前文](https://github.com/CarpenterLee/JCFInternals/blob/master/markdown/6-HashSet%20and%20HashMap.md#get),這里不再贅述。
### 3\. put()
`put(K key, V value)`方法是將指定的`key, value`對添加到`map`里。該方法首先會對`map`做一次查找,看是否包含該元組,如果已經包含則直接返回,查找過程類似于`get()`方法;如果沒有找到,則會通過`addEntry(int hash, K key, V value, int bucketIndex)`方法插入新的`entry`。
注意,這里的**插入有兩重含義**:
> 1. 從 table 的角度看,新的 entry 需要插入到對應的 bucket 里,當有哈希沖突時,采用頭插法將新的 entry 插入到沖突鏈表的頭部。
> 2. 從 header 的角度看,新的 entry 需要插入到雙向鏈表的尾部。
:-: 
`addEntry()`代碼如下:
~~~java
// LinkedHashMap.addEntry()
void addEntry(int hash, K key, V value, int bucketIndex) {
if ((size >= threshold) && (null != table[bucketIndex])) {
resize(2 * table.length);// 自動擴容,并重新哈希
hash = (null != key) ? hash(key) : 0;
bucketIndex = hash & (table.length-1);// hash%table.length
}
// 1.在沖突鏈表頭部插入新的entry
HashMap.Entry<K,V> old = table[bucketIndex];
Entry<K,V> e = new Entry<>(hash, key, value, old);
table[bucketIndex] = e;
// 2.在雙向鏈表的尾部插入新的entry
e.addBefore(header);
size++;
}
~~~
上述代碼中用到了`addBefore()`方 法將新`entry e`插入到雙向鏈表頭引用`header`的前面,這樣`e`就成為雙向鏈表中的最后一個元素。`addBefore()`的代碼如下:
~~~java
// LinkedHashMap.Entry.addBefor(),將this插入到existingEntry的前面
private void addBefore(Entry<K,V> existingEntry) {
after = existingEntry;
before = existingEntry.before;
before.after = this;
after.before = this;
}
~~~
上述代碼只是簡單修改相關`entry`的引用而已。
### 4\. remove()
`remove(Object key)`的作用是刪除`key`值對應的`entry`,該方法的具體邏輯是在`removeEntryForKey(Object key)`里實現的。`removeEntryForKey()`方法會首先找到`key`值對應的`entry`,然后刪除該`entry`(修改鏈表的相應引用)。查找過程跟`get()`方法類似。
注意,這里的**刪除也有兩重含義**:
> 1. 從`table`的角度看,需要將該`entry`從對應的`bucket`里刪除,如果對應的沖突鏈表不空,需要修改沖突鏈表的相應引用。
> 2. 從`header`的角度來看,需要將該`entry`從雙向鏈表中刪除,同時修改鏈表中前面以及后面元素的相應引用。
[](https://github.com/frank-lam/fullstack-tutorial/blob/master/notes/JavaArchitecture/assets/LinkedList_remove.png)
`removeEntryForKey()`對應的代碼如下:
~~~js
// LinkedHashMap.removeEntryForKey(),刪除key值對應的entry
final Entry<K,V> removeEntryForKey(Object key) {
......
int hash = (key == null) ? 0 : hash(key);
int i = indexFor(hash, table.length);// hash&(table.length-1)
Entry<K,V> prev = table[i];// 得到沖突鏈表
Entry<K,V> e = prev;
while (e != null) {// 遍歷沖突鏈表
Entry<K,V> next = e.next;
Object k;
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k)))) {// 找到要刪除的entry
modCount++; size--;
// 1. 將e從對應bucket的沖突鏈表中刪除
if (prev == e) table[i] = next;
else prev.next = next;
// 2. 將e從雙向鏈表中刪除
e.before.after = e.after;
e.after.before = e.before;
return e;
}
prev = e; e = next;
}
return e;
}
~~~
### 5\. LinkedHashSet
前面已經說過*LinkedHashSet*是對*LinkedHashMap*的簡單包裝,對*LinkedHashSet*的函數調用都會轉換成合適的*LinkedHashMap*方法,因此*LinkedHashSet*的實現非常簡單,這里不再贅述。
~~~java
public class LinkedHashSet<E>
extends HashSet<E>
implements Set<E>, Cloneable, java.io.Serializable {
......
// LinkedHashSet里面有一個LinkedHashMap
public LinkedHashSet(int initialCapacity, float loadFactor) {
map = new LinkedHashMap<>(initialCapacity, loadFactor);
}
......
public boolean add(E e) {//簡單的方法轉換
return map.put(e, PRESENT)==null;
}
......
}
~~~
### 6\. LinkedHashMap經典用法
LinkedHashMap 除了可以保證迭代順序外,還有一個非常有用的用法:可以輕松實現一個采用了FIFO替換策略的緩存。具體說來,LinkedHashMap 有一個子類方法`protected boolean removeEldestEntry(Map.Entry<K,V> eldest)`,該方法的作用是告訴 Map 是否要刪除“最老”的 Entry,所謂最老就是當前 Map 中最早插入的 Entry,如果該方法返回 true,最老的那個元素就會被刪除。在每次插入新元素的之后 LinkedHashMap 會自動詢問 removeEldestEntry() 是否要刪除最老的元素。這樣只需要在子類中重載該方法,當元素個數超過一定數量時讓 removeEldestEntry() 返回 true,就能夠實現一個固定大小的 FIFO 策略的緩存。示例代碼如下:
~~~java
/** 一個固定大小的FIFO替換策略的緩存 */
class FIFOCache<K, V> extends LinkedHashMap<K, V>{
private final int cacheSize;
public FIFOCache(int cacheSize){
this.cacheSize = cacheSize;
}
// 當Entry個數超過cacheSize時,刪除最老的Entry
@Override
protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {
return size() > cacheSize;
}
}
~~~
- 一.JVM
- 1.1 java代碼是怎么運行的
- 1.2 JVM的內存區域
- 1.3 JVM運行時內存
- 1.4 JVM內存分配策略
- 1.5 JVM類加載機制與對象的生命周期
- 1.6 常用的垃圾回收算法
- 1.7 JVM垃圾收集器
- 1.8 CMS垃圾收集器
- 1.9 G1垃圾收集器
- 2.面試相關文章
- 2.1 可能是把Java內存區域講得最清楚的一篇文章
- 2.0 GC調優參數
- 2.1GC排查系列
- 2.2 內存泄漏和內存溢出
- 2.2.3 深入理解JVM-hotspot虛擬機對象探秘
- 1.10 并發的可達性分析相關問題
- 二.Java集合架構
- 1.ArrayList深入源碼分析
- 2.Vector深入源碼分析
- 3.LinkedList深入源碼分析
- 4.HashMap深入源碼分析
- 5.ConcurrentHashMap深入源碼分析
- 6.HashSet,LinkedHashSet 和 LinkedHashMap
- 7.容器中的設計模式
- 8.集合架構之面試指南
- 9.TreeSet和TreeMap
- 三.Java基礎
- 1.基礎概念
- 1.1 Java程序初始化的順序是怎么樣的
- 1.2 Java和C++的區別
- 1.3 反射
- 1.4 注解
- 1.5 泛型
- 1.6 字節與字符的區別以及訪問修飾符
- 1.7 深拷貝與淺拷貝
- 1.8 字符串常量池
- 2.面向對象
- 3.關鍵字
- 4.基本數據類型與運算
- 5.字符串與數組
- 6.異常處理
- 7.Object 通用方法
- 8.Java8
- 8.1 Java 8 Tutorial
- 8.2 Java 8 數據流(Stream)
- 8.3 Java 8 并發教程:線程和執行器
- 8.4 Java 8 并發教程:同步和鎖
- 8.5 Java 8 并發教程:原子變量和 ConcurrentMap
- 8.6 Java 8 API 示例:字符串、數值、算術和文件
- 8.7 在 Java 8 中避免 Null 檢查
- 8.8 使用 Intellij IDEA 解決 Java 8 的數據流問題
- 四.Java 并發編程
- 1.線程的實現/創建
- 2.線程生命周期/狀態轉換
- 3.線程池
- 4.線程中的協作、中斷
- 5.Java鎖
- 5.1 樂觀鎖、悲觀鎖和自旋鎖
- 5.2 Synchronized
- 5.3 ReentrantLock
- 5.4 公平鎖和非公平鎖
- 5.3.1 說說ReentrantLock的實現原理,以及ReentrantLock的核心源碼是如何實現的?
- 5.5 鎖優化和升級
- 6.多線程的上下文切換
- 7.死鎖的產生和解決
- 8.J.U.C(java.util.concurrent)
- 0.簡化版(快速復習用)
- 9.鎖優化
- 10.Java 內存模型(JMM)
- 11.ThreadLocal詳解
- 12 CAS
- 13.AQS
- 0.ArrayBlockingQueue和LinkedBlockingQueue的實現原理
- 1.DelayQueue的實現原理
- 14.Thread.join()實現原理
- 15.PriorityQueue 的特性和原理
- 16.CyclicBarrier的實際使用場景
- 五.Java I/O NIO
- 1.I/O模型簡述
- 2.Java NIO之緩沖區
- 3.JAVA NIO之文件通道
- 4.Java NIO之套接字通道
- 5.Java NIO之選擇器
- 6.基于 Java NIO 實現簡單的 HTTP 服務器
- 7.BIO-NIO-AIO
- 8.netty(一)
- 9.NIO面試題
- 六.Java設計模式
- 1.單例模式
- 2.策略模式
- 3.模板方法
- 4.適配器模式
- 5.簡單工廠
- 6.門面模式
- 7.代理模式
- 七.數據結構和算法
- 1.什么是紅黑樹
- 2.二叉樹
- 2.1 二叉樹的前序、中序、后序遍歷
- 3.排序算法匯總
- 4.java實現鏈表及鏈表的重用操作
- 4.1算法題-鏈表反轉
- 5.圖的概述
- 6.常見的幾道字符串算法題
- 7.幾道常見的鏈表算法題
- 8.leetcode常見算法題1
- 9.LRU緩存策略
- 10.二進制及位運算
- 10.1.二進制和十進制轉換
- 10.2.位運算
- 11.常見鏈表算法題
- 12.算法好文推薦
- 13.跳表
- 八.Spring 全家桶
- 1.Spring IOC
- 2.Spring AOP
- 3.Spring 事務管理
- 4.SpringMVC 運行流程和手動實現
- 0.Spring 核心技術
- 5.spring如何解決循環依賴問題
- 6.springboot自動裝配原理
- 7.Spring中的循環依賴解決機制中,為什么要三級緩存,用二級緩存不夠嗎
- 8.beanFactory和factoryBean有什么區別
- 九.數據庫
- 1.mybatis
- 1.1 MyBatis-# 與 $ 區別以及 sql 預編譯
- Mybatis系列1-Configuration
- Mybatis系列2-SQL執行過程
- Mybatis系列3-之SqlSession
- Mybatis系列4-之Executor
- Mybatis系列5-StatementHandler
- Mybatis系列6-MappedStatement
- Mybatis系列7-參數設置揭秘(ParameterHandler)
- Mybatis系列8-緩存機制
- 2.淺談聚簇索引和非聚簇索引的區別
- 3.mysql 證明為什么用limit時,offset很大會影響性能
- 4.MySQL中的索引
- 5.數據庫索引2
- 6.面試題收集
- 7.MySQL行鎖、表鎖、間隙鎖詳解
- 8.數據庫MVCC詳解
- 9.一條SQL查詢語句是如何執行的
- 10.MySQL 的 crash-safe 原理解析
- 11.MySQL 性能優化神器 Explain 使用分析
- 12.mysql中,一條update語句執行的過程是怎么樣的?期間用到了mysql的哪些log,分別有什么作用
- 十.Redis
- 0.快速復習回顧Redis
- 1.通俗易懂的Redis數據結構基礎教程
- 2.分布式鎖(一)
- 3.分布式鎖(二)
- 4.延時隊列
- 5.位圖Bitmaps
- 6.Bitmaps(位圖)的使用
- 7.Scan
- 8.redis緩存雪崩、緩存擊穿、緩存穿透
- 9.Redis為什么是單線程、及高并發快的3大原因詳解
- 10.布隆過濾器你值得擁有的開發利器
- 11.Redis哨兵、復制、集群的設計原理與區別
- 12.redis的IO多路復用
- 13.相關redis面試題
- 14.redis集群
- 十一.中間件
- 1.RabbitMQ
- 1.1 RabbitMQ實戰,hello world
- 1.2 RabbitMQ 實戰,工作隊列
- 1.3 RabbitMQ 實戰, 發布訂閱
- 1.4 RabbitMQ 實戰,路由
- 1.5 RabbitMQ 實戰,主題
- 1.6 Spring AMQP 的 AMQP 抽象
- 1.7 Spring AMQP 實戰 – 整合 RabbitMQ 發送郵件
- 1.8 RabbitMQ 的消息持久化與 Spring AMQP 的實現剖析
- 1.9 RabbitMQ必備核心知識
- 2.RocketMQ 的幾個簡單問題與答案
- 2.Kafka
- 2.1 kafka 基礎概念和術語
- 2.2 Kafka的重平衡(Rebalance)
- 2.3.kafka日志機制
- 2.4 kafka是pull還是push的方式傳遞消息的?
- 2.5 Kafka的數據處理流程
- 2.6 Kafka的腦裂預防和處理機制
- 2.7 Kafka中partition副本的Leader選舉機制
- 2.8 如果Leader掛了的時候,follower沒來得及同步,是否會出現數據不一致
- 2.9 kafka的partition副本是否會出現腦裂情況
- 十二.Zookeeper
- 0.什么是Zookeeper(漫畫)
- 1.使用docker安裝Zookeeper偽集群
- 3.ZooKeeper-Plus
- 4.zk實現分布式鎖
- 5.ZooKeeper之Watcher機制
- 6.Zookeeper之選舉及數據一致性
- 十三.計算機網絡
- 1.進制轉換:二進制、八進制、十六進制、十進制之間的轉換
- 2.位運算
- 3.計算機網絡面試題匯總1
- 十四.Docker
- 100.面試題收集合集
- 1.美團面試常見問題總結
- 2.b站部分面試題
- 3.比心面試題
- 4.騰訊面試題
- 5.哈羅部分面試
- 6.筆記
- 十五.Storm
- 1.Storm和流處理簡介
- 2.Storm 核心概念詳解
- 3.Storm 單機版本環境搭建
- 4.Storm 集群環境搭建
- 5.Storm 編程模型詳解
- 6.Storm 項目三種打包方式對比分析
- 7.Storm 集成 Redis 詳解
- 8.Storm 集成 HDFS 和 HBase
- 9.Storm 集成 Kafka
- 十六.Elasticsearch
- 1.初識ElasticSearch
- 2.文檔基本CRUD、集群健康檢查
- 3.shard&replica
- 4.document核心元數據解析及ES的并發控制
- 5.document的批量操作及數據路由原理
- 6.倒排索引
- 十七.分布式相關
- 1.分布式事務解決方案一網打盡
- 2.關于xxx怎么保證高可用的問題
- 3.一致性hash原理與實現
- 4.微服務注冊中心 Nacos 比 Eureka的優勢
- 5.Raft 協議算法
- 6.為什么微服務架構中需要網關
- 0.CAP與BASE理論
- 十八.Dubbo
- 1.快速掌握Dubbo常規應用
- 2.Dubbo應用進階
- 3.Dubbo調用模塊詳解
- 4.Dubbo調用模塊源碼分析
- 6.Dubbo協議模塊