## `AtomicInteger`
`java.concurrent.atomic`包包含了許多實用的類,用于執行原子操作。如果你能夠在多線程中同時且安全地執行某個操作,而不需要`synchronized`關鍵字或[上一章](http://www.hmoore.net/imnotdown1019/java_core_full/1012271)中的鎖,那么這個操作就是原子的。
本質上,原子操作嚴重依賴于比較與交換(CAS),它是由多數現代CPU直接支持的原子指令。這些指令通常比同步塊要快。所以在只需要并發修改單個可變變量的情況下,我建議你優先使用原子類,而不是[上一章](http://www.hmoore.net/imnotdown1019/java_core_full/1012271)展示的鎖。
> 譯者注:對于其它語言,一些語言的原子操作用鎖實現,而不是原子指令。
現在讓我們選取一個原子類,例如`AtomicInteger`:
~~~java
AtomicInteger atomicInt = new AtomicInteger(0);
ExecutorService executor = Executors.newFixedThreadPool(2);
IntStream.range(0, 1000)
.forEach(i -> executor.submit(atomicInt::incrementAndGet));
stop(executor);
System.out.println(atomicInt.get()); // => 1000
~~~
通過使用`AtomicInteger`代替`Integer`,我們就能線程安全地并發增加數值,而不需要同步訪問變量。`incrementAndGet()`方法是原子操作,所以我們可以在多個線程中安全調用它。
`AtomicInteger`支持多種原子操作。`updateAndGet()`接受lambda表達式,以便在整數上執行任意操作:
~~~java
AtomicInteger atomicInt = new AtomicInteger(0);
ExecutorService executor = Executors.newFixedThreadPool(2);
IntStream.range(0, 1000)
.forEach(i -> {
Runnable task = () ->
atomicInt.updateAndGet(n -> n + 2);
executor.submit(task);
});
stop(executor);
System.out.println(atomicInt.get()); // => 2000
~~~
`accumulateAndGet()`方法接受另一種類型`IntBinaryOperator`的lambda表達式。我們在下個例子中,使用這個方法并發計算0~1000所有值的和:
~~~java
AtomicInteger atomicInt = new AtomicInteger(0);
ExecutorService executor = Executors.newFixedThreadPool(2);
IntStream.range(0, 1000)
.forEach(i -> {
Runnable task = () ->
atomicInt.accumulateAndGet(i, (n, m) -> n + m);
executor.submit(task);
});
stop(executor);
System.out.println(atomicInt.get()); // => 499500
~~~
其它實用的原子類有`AtomicBoolean`、`AtomicLong`和`AtomicReference`。
## [](https://github.com/wizardforcel/modern-java-zh/blob/master/ch6.md#longadder)`LongAdder`
`LongAdder`是`AtomicLong`的替代,用于向某個數值連續添加值。
~~~java
ExecutorService executor = Executors.newFixedThreadPool(2);
IntStream.range(0, 1000)
.forEach(i -> executor.submit(adder::increment));
stop(executor);
System.out.println(adder.sumThenReset()); // => 1000
~~~
`LongAdder`提供了`add()`和`increment()`方法,就像原子數值類一樣,同樣是線程安全的。但是這個類在內部維護一系列變量來減少線程之間的爭用,而不是求和計算單一結果。實際的結果可以通過調用`sum()`或`sumThenReset()`來獲取。
當多線程的更新比讀取更頻繁時,這個類通常比原子數值類性能更好。這種情況在抓取統計數據時經常出現,例如,你希望統計Web服務器上請求的數量。`LongAdder`缺點是較高的內存開銷,因為它在內存中儲存了一系列變量。
## [](https://github.com/wizardforcel/modern-java-zh/blob/master/ch6.md#longaccumulator)`LongAccumulator`
`LongAccumulator`是`LongAdder`的更通用的版本。`LongAccumulator`以類型為`LongBinaryOperator`lambda表達式構建,而不是僅僅執行加法操作,像這段代碼展示的那樣:
~~~java
LongBinaryOperator op = (x, y) -> 2 * x + y;
LongAccumulator accumulator = new LongAccumulator(op, 1L);
ExecutorService executor = Executors.newFixedThreadPool(2);
IntStream.range(0, 10)
.forEach(i -> executor.submit(() -> accumulator.accumulate(i)));
stop(executor);
System.out.println(accumulator.getThenReset()); // => 2539
~~~
我們使用函數`2 * x + y`創建了`LongAccumulator`,初始值為1。每次調用`accumulate(i)`的時候,當前結果和值`i`都會作為參數傳入lambda表達式。
`LongAccumulator`就像`LongAdder`那樣,在內部維護一系列變量來減少線程之間的爭用。
## [](https://github.com/wizardforcel/modern-java-zh/blob/master/ch6.md#concurrentmap)`ConcurrentMap`
`ConcurrentMap`接口繼承自`Map`接口,并定義了最實用的并發集合類型之一。Java8通過將新的方法添加到這個接口,引入了函數式編程。
在下面的代碼中,我們使用這個映射示例來展示那些新的方法:
~~~java
ConcurrentMap<String, String> map = new ConcurrentHashMap<>();
map.put("foo", "bar");
map.put("han", "solo");
map.put("r2", "d2");
map.put("c3", "p0");
~~~
`forEach()`方法接受類型為`BiConsumer`的lambda表達式,以映射的鍵和值作為參數傳遞。它可以作為`for-each`循環的替代,來遍歷并發映射中的元素。迭代在當前線程上串行執行。
~~~java
map.forEach((key, value) -> System.out.printf("%s = %s\n", key, value));
~~~
新方法`putIfAbsent()`只在提供的鍵不存在時,將新的值添加到映射中。至少在`ConcurrentHashMap`的實現中,這一方法像`put()`一樣是線程安全的,所以你在不同線程中并發訪問映射時,不需要任何同步機制。
~~~java
String value = map.putIfAbsent("c3", "p1");
System.out.println(value); // p0
~~~
`getOrDefault()`方法返回指定鍵的值。在傳入的鍵不存在時,會返回默認值:
~~~java
String value = map.getOrDefault("hi", "there");
System.out.println(value); // there
~~~
`replaceAll()`接受類型為`BiFunction`的lambda表達式。`BiFunction`接受兩個參數并返回一個值。函數在這里以每個元素的鍵和值調用,并返回要映射到當前鍵的新值。
~~~java
map.replaceAll((key, value) -> "r2".equals(key) ? "d3" : value);
System.out.println(map.get("r2")); // d3
~~~
`compute()`允許我們轉換單個元素,而不是替換映射中的所有值。這個方法接受需要處理的鍵,和用于指定值的轉換的`BiFunction`。
~~~java
map.compute("foo", (key, value) -> value + value);
System.out.println(map.get("foo")); // barbar
~~~
除了`compute()`之外還有兩個變體:`computeIfAbsent()`和`computeIfPresent()`。這些方法的函數式參數只在鍵不存在或存在時被調用。
最后,`merge()`方法可以用于以映射中的現有值來統一新的值。這個方法接受鍵、需要并入現有元素的新值,以及指定兩個值的合并行為的`BiFunction`。
~~~java
map.merge("foo", "boo", (oldVal, newVal) -> newVal + " was " + oldVal);
System.out.println(map.get("foo")); // boo was foo
~~~
## [](https://github.com/wizardforcel/modern-java-zh/blob/master/ch6.md#concurrenthashmap)`ConcurrentHashMap`
所有這些方法都是`ConcurrentMap`接口的一部分,因此可在所有該接口的實現上調用。此外,最重要的實現`ConcurrentHashMap`使用了一些新的方法來改進,便于在映射上執行并行操作。
就像并行流那樣,這些方法使用特定的`ForkJoinPool`,由Java8中的`ForkJoinPool.commonPool()`提供。該池使用了取決于可用核心數量的預置并行機制。我的電腦有四個核心可用,這會使并行性的結果為3:
~~~java
System.out.println(ForkJoinPool.getCommonPoolParallelism()); // 3
~~~
這個值可以通過設置下列JVM參數來增減:
~~~
-Djava.util.concurrent.ForkJoinPool.common.parallelism=5
~~~
我們使用相同的映射示例來展示,但是這次我們使用具體的`ConcurrentHashMap`實現而不是`ConcurrentMap`接口,所以我們可以訪問這個類的所有公共方法:
~~~java
ConcurrentHashMap<String, String> map = new ConcurrentHashMap<>();
map.put("foo", "bar");
map.put("han", "solo");
map.put("r2", "d2");
map.put("c3", "p0");
~~~
Java8引入了三種類型的并行操作:`forEach`、`search`和`reduce`。這些操作中每個都以四種形式提供,接受以鍵、值、元素或鍵值對為參數的函數。
所有這些方法的第一個參數是通用的`parallelismThreshold`。這一閾值表示操作并行執行時的最小集合大小。例如,如果你傳入閾值500,而映射的實際大小是499,那么操作就會在單線程上串行執行。在下一個例子中,我們使用閾值1,始終強制并行執行來展示。
### [](https://github.com/wizardforcel/modern-java-zh/blob/master/ch6.md#foreach)`forEach`
`forEach()`方法可以并行迭代映射中的鍵值對。`BiConsumer`以當前迭代元素的鍵和值調用。為了將并行執行可視化,我們向控制臺打印了當前線程的名稱。要注意在我這里底層的`ForkJoinPool`最多使用三個線程。
~~~java
map.forEach(1, (key, value) ->
System.out.printf("key: %s; value: %s; thread: %s\n",
key, value, Thread.currentThread().getName()));
// key: r2; value: d2; thread: main
// key: foo; value: bar; thread: ForkJoinPool.commonPool-worker-1
// key: han; value: solo; thread: ForkJoinPool.commonPool-worker-2
// key: c3; value: p0; thread: main
~~~
### [](https://github.com/wizardforcel/modern-java-zh/blob/master/ch6.md#search)`search`
`search()`方法接受`BiFunction`并為當前的鍵值對返回一個非空的搜索結果,或者在當前迭代不匹配任何搜索條件時返回`null`。只要返回了非空的結果,就不會往下搜索了。要記住`ConcurrentHashMap`是無序的。搜索函數應該不依賴于映射實際的處理順序。如果映射的多個元素都滿足指定搜索函數,結果是非確定的。
~~~java
String result = map.search(1, (key, value) -> {
System.out.println(Thread.currentThread().getName());
if ("foo".equals(key)) {
return value;
}
return null;
});
System.out.println("Result: " + result);
// ForkJoinPool.commonPool-worker-2
// main
// ForkJoinPool.commonPool-worker-3
// Result: bar
~~~
下面是另一個例子,僅僅搜索映射中的值:
~~~java
String result = map.searchValues(1, value -> {
System.out.println(Thread.currentThread().getName());
if (value.length() > 3) {
return value;
}
return null;
});
System.out.println("Result: " + result);
// ForkJoinPool.commonPool-worker-2
// main
// main
// ForkJoinPool.commonPool-worker-1
// Result: solo
~~~
### [](https://github.com/wizardforcel/modern-java-zh/blob/master/ch6.md#reduce)`reduce`
`reduce()`方法已經在Java 8 的數據流之中用過了,它接受兩個`BiFunction`類型的lambda表達式。第一個函數將每個鍵值對轉換為任意類型的單一值。第二個函數將所有這些轉換后的值組合為單一結果,并忽略所有可能的`null`值。
~~~java
String result = map.reduce(1,
(key, value) -> {
System.out.println("Transform: " + Thread.currentThread().getName());
return key + "=" + value;
},
(s1, s2) -> {
System.out.println("Reduce: " + Thread.currentThread().getName());
return s1 + ", " + s2;
});
System.out.println("Result: " + result);
// Transform: ForkJoinPool.commonPool-worker-2
// Transform: main
// Transform: ForkJoinPool.commonPool-worker-3
// Reduce: ForkJoinPool.commonPool-worker-3
// Transform: main
// Reduce: main
// Reduce: main
// Result: r2=d2, c3=p0, han=solo, foo=bar
~~~
- 一.JVM
- 1.1 java代碼是怎么運行的
- 1.2 JVM的內存區域
- 1.3 JVM運行時內存
- 1.4 JVM內存分配策略
- 1.5 JVM類加載機制與對象的生命周期
- 1.6 常用的垃圾回收算法
- 1.7 JVM垃圾收集器
- 1.8 CMS垃圾收集器
- 1.9 G1垃圾收集器
- 2.面試相關文章
- 2.1 可能是把Java內存區域講得最清楚的一篇文章
- 2.0 GC調優參數
- 2.1GC排查系列
- 2.2 內存泄漏和內存溢出
- 2.2.3 深入理解JVM-hotspot虛擬機對象探秘
- 1.10 并發的可達性分析相關問題
- 二.Java集合架構
- 1.ArrayList深入源碼分析
- 2.Vector深入源碼分析
- 3.LinkedList深入源碼分析
- 4.HashMap深入源碼分析
- 5.ConcurrentHashMap深入源碼分析
- 6.HashSet,LinkedHashSet 和 LinkedHashMap
- 7.容器中的設計模式
- 8.集合架構之面試指南
- 9.TreeSet和TreeMap
- 三.Java基礎
- 1.基礎概念
- 1.1 Java程序初始化的順序是怎么樣的
- 1.2 Java和C++的區別
- 1.3 反射
- 1.4 注解
- 1.5 泛型
- 1.6 字節與字符的區別以及訪問修飾符
- 1.7 深拷貝與淺拷貝
- 1.8 字符串常量池
- 2.面向對象
- 3.關鍵字
- 4.基本數據類型與運算
- 5.字符串與數組
- 6.異常處理
- 7.Object 通用方法
- 8.Java8
- 8.1 Java 8 Tutorial
- 8.2 Java 8 數據流(Stream)
- 8.3 Java 8 并發教程:線程和執行器
- 8.4 Java 8 并發教程:同步和鎖
- 8.5 Java 8 并發教程:原子變量和 ConcurrentMap
- 8.6 Java 8 API 示例:字符串、數值、算術和文件
- 8.7 在 Java 8 中避免 Null 檢查
- 8.8 使用 Intellij IDEA 解決 Java 8 的數據流問題
- 四.Java 并發編程
- 1.線程的實現/創建
- 2.線程生命周期/狀態轉換
- 3.線程池
- 4.線程中的協作、中斷
- 5.Java鎖
- 5.1 樂觀鎖、悲觀鎖和自旋鎖
- 5.2 Synchronized
- 5.3 ReentrantLock
- 5.4 公平鎖和非公平鎖
- 5.3.1 說說ReentrantLock的實現原理,以及ReentrantLock的核心源碼是如何實現的?
- 5.5 鎖優化和升級
- 6.多線程的上下文切換
- 7.死鎖的產生和解決
- 8.J.U.C(java.util.concurrent)
- 0.簡化版(快速復習用)
- 9.鎖優化
- 10.Java 內存模型(JMM)
- 11.ThreadLocal詳解
- 12 CAS
- 13.AQS
- 0.ArrayBlockingQueue和LinkedBlockingQueue的實現原理
- 1.DelayQueue的實現原理
- 14.Thread.join()實現原理
- 15.PriorityQueue 的特性和原理
- 16.CyclicBarrier的實際使用場景
- 五.Java I/O NIO
- 1.I/O模型簡述
- 2.Java NIO之緩沖區
- 3.JAVA NIO之文件通道
- 4.Java NIO之套接字通道
- 5.Java NIO之選擇器
- 6.基于 Java NIO 實現簡單的 HTTP 服務器
- 7.BIO-NIO-AIO
- 8.netty(一)
- 9.NIO面試題
- 六.Java設計模式
- 1.單例模式
- 2.策略模式
- 3.模板方法
- 4.適配器模式
- 5.簡單工廠
- 6.門面模式
- 7.代理模式
- 七.數據結構和算法
- 1.什么是紅黑樹
- 2.二叉樹
- 2.1 二叉樹的前序、中序、后序遍歷
- 3.排序算法匯總
- 4.java實現鏈表及鏈表的重用操作
- 4.1算法題-鏈表反轉
- 5.圖的概述
- 6.常見的幾道字符串算法題
- 7.幾道常見的鏈表算法題
- 8.leetcode常見算法題1
- 9.LRU緩存策略
- 10.二進制及位運算
- 10.1.二進制和十進制轉換
- 10.2.位運算
- 11.常見鏈表算法題
- 12.算法好文推薦
- 13.跳表
- 八.Spring 全家桶
- 1.Spring IOC
- 2.Spring AOP
- 3.Spring 事務管理
- 4.SpringMVC 運行流程和手動實現
- 0.Spring 核心技術
- 5.spring如何解決循環依賴問題
- 6.springboot自動裝配原理
- 7.Spring中的循環依賴解決機制中,為什么要三級緩存,用二級緩存不夠嗎
- 8.beanFactory和factoryBean有什么區別
- 九.數據庫
- 1.mybatis
- 1.1 MyBatis-# 與 $ 區別以及 sql 預編譯
- Mybatis系列1-Configuration
- Mybatis系列2-SQL執行過程
- Mybatis系列3-之SqlSession
- Mybatis系列4-之Executor
- Mybatis系列5-StatementHandler
- Mybatis系列6-MappedStatement
- Mybatis系列7-參數設置揭秘(ParameterHandler)
- Mybatis系列8-緩存機制
- 2.淺談聚簇索引和非聚簇索引的區別
- 3.mysql 證明為什么用limit時,offset很大會影響性能
- 4.MySQL中的索引
- 5.數據庫索引2
- 6.面試題收集
- 7.MySQL行鎖、表鎖、間隙鎖詳解
- 8.數據庫MVCC詳解
- 9.一條SQL查詢語句是如何執行的
- 10.MySQL 的 crash-safe 原理解析
- 11.MySQL 性能優化神器 Explain 使用分析
- 12.mysql中,一條update語句執行的過程是怎么樣的?期間用到了mysql的哪些log,分別有什么作用
- 十.Redis
- 0.快速復習回顧Redis
- 1.通俗易懂的Redis數據結構基礎教程
- 2.分布式鎖(一)
- 3.分布式鎖(二)
- 4.延時隊列
- 5.位圖Bitmaps
- 6.Bitmaps(位圖)的使用
- 7.Scan
- 8.redis緩存雪崩、緩存擊穿、緩存穿透
- 9.Redis為什么是單線程、及高并發快的3大原因詳解
- 10.布隆過濾器你值得擁有的開發利器
- 11.Redis哨兵、復制、集群的設計原理與區別
- 12.redis的IO多路復用
- 13.相關redis面試題
- 14.redis集群
- 十一.中間件
- 1.RabbitMQ
- 1.1 RabbitMQ實戰,hello world
- 1.2 RabbitMQ 實戰,工作隊列
- 1.3 RabbitMQ 實戰, 發布訂閱
- 1.4 RabbitMQ 實戰,路由
- 1.5 RabbitMQ 實戰,主題
- 1.6 Spring AMQP 的 AMQP 抽象
- 1.7 Spring AMQP 實戰 – 整合 RabbitMQ 發送郵件
- 1.8 RabbitMQ 的消息持久化與 Spring AMQP 的實現剖析
- 1.9 RabbitMQ必備核心知識
- 2.RocketMQ 的幾個簡單問題與答案
- 2.Kafka
- 2.1 kafka 基礎概念和術語
- 2.2 Kafka的重平衡(Rebalance)
- 2.3.kafka日志機制
- 2.4 kafka是pull還是push的方式傳遞消息的?
- 2.5 Kafka的數據處理流程
- 2.6 Kafka的腦裂預防和處理機制
- 2.7 Kafka中partition副本的Leader選舉機制
- 2.8 如果Leader掛了的時候,follower沒來得及同步,是否會出現數據不一致
- 2.9 kafka的partition副本是否會出現腦裂情況
- 十二.Zookeeper
- 0.什么是Zookeeper(漫畫)
- 1.使用docker安裝Zookeeper偽集群
- 3.ZooKeeper-Plus
- 4.zk實現分布式鎖
- 5.ZooKeeper之Watcher機制
- 6.Zookeeper之選舉及數據一致性
- 十三.計算機網絡
- 1.進制轉換:二進制、八進制、十六進制、十進制之間的轉換
- 2.位運算
- 3.計算機網絡面試題匯總1
- 十四.Docker
- 100.面試題收集合集
- 1.美團面試常見問題總結
- 2.b站部分面試題
- 3.比心面試題
- 4.騰訊面試題
- 5.哈羅部分面試
- 6.筆記
- 十五.Storm
- 1.Storm和流處理簡介
- 2.Storm 核心概念詳解
- 3.Storm 單機版本環境搭建
- 4.Storm 集群環境搭建
- 5.Storm 編程模型詳解
- 6.Storm 項目三種打包方式對比分析
- 7.Storm 集成 Redis 詳解
- 8.Storm 集成 HDFS 和 HBase
- 9.Storm 集成 Kafka
- 十六.Elasticsearch
- 1.初識ElasticSearch
- 2.文檔基本CRUD、集群健康檢查
- 3.shard&replica
- 4.document核心元數據解析及ES的并發控制
- 5.document的批量操作及數據路由原理
- 6.倒排索引
- 十七.分布式相關
- 1.分布式事務解決方案一網打盡
- 2.關于xxx怎么保證高可用的問題
- 3.一致性hash原理與實現
- 4.微服務注冊中心 Nacos 比 Eureka的優勢
- 5.Raft 協議算法
- 6.為什么微服務架構中需要網關
- 0.CAP與BASE理論
- 十八.Dubbo
- 1.快速掌握Dubbo常規應用
- 2.Dubbo應用進階
- 3.Dubbo調用模塊詳解
- 4.Dubbo調用模塊源碼分析
- 6.Dubbo協議模塊