[TOC]
# redis-spring-boot-starter
前面項目中,咱們使用了[db-core]([http://www.hmoore.net/owenwangwen/open-capacity-platform/1048264](http://www.hmoore.net/owenwangwen/open-capacity-platform/1048264))為整個項目提供通用的數據庫處理, db-core提供了druid數據源,mybatis的操作,也支持了redis的操作,功能不單一,將代碼分離,自定義redis-spring-boot-starter
## 功能
* lettuce連接池
* redis操作工具類
* geohash 經緯度定位
* redisson分布式鎖
## 代碼分析
* 代碼一覽

* RedisAutoConfig

回顧db-spring-boot-starter的章節
* @EnableAutoConfiguration 作用:從classpath中搜索所有META-INF/spring.factories配置文件
并且其中org.springframework.boot.autoconfigure.EnableAutoConfiguration key對應的配置項加載到spring容器
## 序列化
### redis序列化配置

### oauth序列化配置

### 測試腳本
原生序列化方案[序列化100000次]耗時:14389ms size:=1276000000
原生序列化方案[反序列化100000次]耗時:16298ms size:=1276000000
hessian序列化方案[序列化100000次]耗時:10479ms size:=792000000
hessian序列化方案[反序列化100000次]耗時:5480ms size:=792000000
Kryo序列化方案[序列化100000次]耗時:9330ms size:=1013000000
Kryo序列化方案[反序列化100000次]耗時:8582ms size:=1013000000
```
public static void main(String[] args) {
Map map = new HashMap();
for(int i = 0 ; i <=100 ; i++) {
map.put("a"+i, "a"+i);
}
Serializer jdkSerializer = SerializerManager.getSerializer(SerializerManager.JDK) ;
Serializer kryoObjectSerializer = SerializerManager.getSerializer(SerializerManager.KRYO) ;
Serializer hessianSerializer = SerializerManager.getSerializer(SerializerManager.HESSIAN2) ;
long size = 0;
long time1 = System.currentTimeMillis();
byte[] jdkserialize = null ;
byte[] redisserialize = null ;
byte[] kryoserialize = null ;
for (int i = 0; i < 1000000; i++) {
jdkserialize =jdkSerializer.serialize(map);
size += jdkserialize.length;
}
System.out.println("原生序列化方案[序列化100000次]耗時:"
+ (System.currentTimeMillis() - time1) + "ms size:=" + size);
long time2 = System.currentTimeMillis();
for (int i = 0; i < 1000000; i++) {
Map aa =(Map) jdkSerializer.deserialize(jdkserialize) ;
}
System.out.println("原生序列化方案[反序列化100000次]耗時:"
+ (System.currentTimeMillis() - time2) + "ms size:=" + size);
long time3 = System.currentTimeMillis();
size = 0;
for (int i = 0; i < 1000000; i++) {
redisserialize =hessianSerializer.serialize(map);
size += redisserialize.length;
}
System.out.println("hessian序列化方案[序列化100000次]耗時:"
+ (System.currentTimeMillis() - time3) + "ms size:=" + size);
long time4 = System.currentTimeMillis();
for (int i = 0; i < 1000000; i++) {
Map aa =(Map) hessianSerializer.deserialize(redisserialize) ;
}
System.out.println("hessian序列化方案[反序列化100000次]耗時:"
+ (System.currentTimeMillis() - time4) + "ms size:=" + size);
long time5 = System.currentTimeMillis();
size = 0;
for (int i = 0; i < 1000000; i++) {
kryoserialize =kryoObjectSerializer.serialize(map);
size += kryoserialize.length;
}
System.out.println("Kryo序列化方案[序列化100000次]耗時:"
+ (System.currentTimeMillis() - time5) + "ms size:=" + size);
long time6 = System.currentTimeMillis();
for (int i = 0; i < 1000000; i++) {
Map aa =(Map) kryoObjectSerializer.deserialize(kryoserialize) ;
}
System.out.println("Kryo序列化方案[反序列化100000次]耗時:"
+ (System.currentTimeMillis() - time6) + "ms size:=" + size);
}
```
## redis cluster中的代碼優化
項目中 3主3從 redis集群出現單節點宕機,造成master遷移,但是發現應用無法正常連接redis ,分析了代碼,發現默認Lettuce是不會刷新拓撲io.lettuce.core.cluster.models.partitions.Partitions#slotCache,最終造成槽點查找節點依舊找到老的節點,自然訪問不了了。

## geohash 經緯度定位
~~~
/**
* 添加經緯度信息 map.put("北京" ,new Point(116.405285 ,39.904989)) //redis 命令:geoadd
* cityGeo 116.405285 39.904989 "北京"
*/
public Long addGeoPoint(String key, Map<Object, Point> map) {
return redisTemplate.opsForGeo().add(key, map);
}
/**
* 查找指定key的經緯度信息 redis命令:geopos cityGeo 北京
*
* @param key
* @param member
* @return
*/
public Point geoGetPoint(String key, String member) {
List<Point> lists = redisTemplate.opsForGeo().position(key, member);
return lists.get(0);
}
/**
* 返回兩個地方的距離,可以指定單位 redis命令:geodist cityGeo 北京 上海
*
* @param key
* @param srcMember
* @param targetMember
* @return
*/
public Distance geoDistance(String key, String srcMember, String targetMember) {
Distance distance = redisTemplate.opsForGeo().distance(key, srcMember, targetMember, Metrics.KILOMETERS);
return distance;
}
/**
* 根據指定的地點查詢半徑在指定范圍內的位置 redis命令:georadiusbymember cityGeo 北京 100 km WITHDIST
* WITHCOORD ASC COUNT 5
*
* @param key
* @param member
* @param distance
* @return
*/
public GeoResults geoRadiusByMember(String key, String member, double distance) {
return redisTemplate.opsForGeo().radius(key, member, new Distance(distance, Metrics.KILOMETERS),
RedisGeoCommands.GeoRadiusCommandArgs.newGeoRadiusArgs().includeDistance().includeCoordinates()
.sortAscending());
}
/**
* 根據給定的經緯度,返回半徑不超過指定距離的元素 redis命令:georadius cityGeo 116.405285 39.904989
* 100 km WITHDIST WITHCOORD ASC COUNT 5
*
* @param key
* @param circle
* @param distance
* @return
*/
public GeoResults geoRadiusByCircle(String key, Circle circle, double distance) {
return redisTemplate.opsForGeo().radius(key, circle, new Distance(distance, Metrics.KILOMETERS),
RedisGeoCommands.GeoRadiusCommandArgs.newGeoRadiusArgs().includeDistance().includeCoordinates()
.sortAscending());
}
//刪除元素
public Long deleteGeoMember(String key, String member) {
return redisTemplate.boundZSetOps(key).remove(member);
}
~~~
## 分布式鎖redssion
### 集成方式

### 大致使用

### 代碼分析
* 獲取鎖

> 調用getLock()方法后實際返回一個RedissonLock對象
* 加鎖


> 在RedissonLock對象的lock()方法主要調用tryAcquire()方法,由于leaseTime == -1,于是走tryLockInnerAsync()方法,
* 加鎖細節

> 結合上面的參數聲明,我們可以知道,這里KEYS\[1\]就是getName(),ARGV\[2\]是getLockName(threadId),假設前面獲取鎖時傳的name是“anyLock”,假設調用的線程ID是Thread-1,假設成員變量UUID類型的id是85b196ce-e6f2-42ff-b3d7-6615b6748b5d:65那么KEYS\[1\]=anyLock,ARGV\[2\]=85b196ce-e6f2-42ff-b3d7-6615b6748b5d:Thread-1 ,因此,這段腳本的意思是1、判斷有沒有一個叫“anyLock”的key2、如果沒有,則在其下設置一個字段為“85b196ce-e6f2-42ff-b3d7-6615b6748b5d:Thread-1”,值為“1”的鍵值對 ,并設置它的過期時間3、如果存在,則進一步判斷“85b196ce-e6f2-42ff-b3d7-6615b6748b5d:Thread-1”是否存在,若存在,則其值加1,并重新設置過期時間4、返回“anyLock”的生存時間(毫秒)
* 加鎖redis結構

> 這里用的數據結構是hash,hash的結構是: key? 字段1? 值1 字段2? 值2? 。。。用在鎖這個場景下,key就表示鎖的名稱,也可以理解為臨界資源,字段就表示當前獲得鎖的線程所有競爭這把鎖的線程都要判斷在這個key下有沒有自己線程的字段,如果沒有則不能獲得鎖,如果有,則相當于重入,字段值加1(次數)
* 解鎖

> 我們還是假設name=anyLock,假設線程ID是Thread-1,同理,我們可以知道KEYS\[1\]是getName(),即KEYS\[1\]=anyLock,KEYS\[2\]是getChannelName(),即KEYS\[2\]=redisson\_lock\_\_channel:{anyLock},ARGV\[1\]是LockPubSub.unlockMessage,即ARGV\[1\]=0,ARGV\[2\]是生存時間,ARGV\[3\]是getLockName(threadId),即ARGV\[3\]=85b196ce-e6f2-42ff-b3d7-6615b6748b5d:Thread-1,因此,上面腳本的意思是:1、判斷是否存在一個叫“anyLock”的key2、如果不存在,向Channel中廣播一條消息,廣播的內容是0,并返回1。3、如果存在,進一步判斷字段85b196ce-e6f2-42ff-b3d7-6615b6748b5d:Thread-1是否存在。4、若字段不存在,返回空,若字段存在,則字段值減1,5、若減完以后,字段值仍大于0,則返回0。6、減完后,若字段值小于或等于0,則廣播一條消息,廣播內容是0,并返回1;可以猜測,廣播0表示資源可用,即通知那些等待獲取鎖的線程現在可以獲得鎖了
* 等待
```
private void lock(long leaseTime, TimeUnit unit, boolean interruptibly) throws InterruptedException {
long threadId = Thread.currentThread().getId();
Long ttl = tryAcquire(leaseTime, unit, threadId);
// lock acquired
if (ttl == null) {
return;
}
RFuture<RedissonLockEntry> future = subscribe(threadId);
if (interruptibly) {
commandExecutor.syncSubscriptionInterrupted(future);
} else {
commandExecutor.syncSubscription(future);
}
try {
while (true) {
ttl = tryAcquire(leaseTime, unit, threadId);
// lock acquired
if (ttl == null) {
break;
}
// waiting for message
if (ttl >= 0) {
try {
future.getNow().getLatch().tryAcquire(ttl, TimeUnit.MILLISECONDS);
} catch (InterruptedException e) {
if (interruptibly) {
throw e;
}
future.getNow().getLatch().tryAcquire(ttl, TimeUnit.MILLISECONDS);
}
} else {
if (interruptibly) {
future.getNow().getLatch().acquire();
} else {
future.getNow().getLatch().acquireUninterruptibly();
}
}
}
} finally {
unsubscribe(future, threadId);
}
// get(lockAsync(leaseTime, unit));
}
```
> 這里會訂閱Channel,當資源可用時可以及時知道,并搶占,防止無效的輪詢而浪費資源當資源可用用的時候,循環去嘗試獲取鎖,由于多個線程同時去競爭資源,所以這里用了信號量,對于同一個資源只允許一個線程獲得鎖,其它的線程阻塞
* 總結


## Cache Aside Pattern
* 讀的時候,先讀緩存,緩存沒有的話,那么就讀數據庫,然后取出數據后放入緩存,同時返回響應

* 更新的時候,先刪除緩存,然后再更新數據庫
- 前言
- 1.項目說明
- 2.項目更新日志
- 3.文檔更新日志
- 01.快速開始
- 01.maven構建項目
- 02.環境安裝
- 03.STS項目導入
- 03.IDEA項目導入
- 04.數據初始化
- 05.項目啟動
- 06.付費文檔說明
- 02.總體流程
- 1.oauth接口
- 2.架構設計圖
- 3.微服務介紹
- 4.功能介紹
- 5.梳理流程
- 03.模塊詳解
- 01.老版本1.0.1分支模塊講解
- 01.db-core模塊
- 02.api-commons模塊
- 03.log-core模塊
- 04.security-core模塊
- 05.swagger-core模塊
- 06.eureka-server模塊
- 07.auth-server模塊
- 08.auth-sso模塊解析
- 09.user-center模塊
- 10.api-gateway模塊
- 11.file-center模塊
- 12.log-center模塊
- 13.batch-center模塊
- 14.back-center模塊
- 02.spring-boot-starter-web那點事
- 03.自定義db-spring-boot-starter
- 04.自定義log-spring-boot-starter
- 05.自定義redis-spring-boot-starter
- 06.自定義common-spring-boot-starter
- 07.自定義swagger-spring-boot-starter
- 08.自定義uaa-server-spring-boot-starter
- 09.自定義uaa-client-spring-boot-starter
- 10.自定義ribbon-spring-boot-starter
- 11.springboot啟動原理
- 12.eureka-server模塊
- 13.auth-server模塊
- 14.user-center模塊
- 15.api-gateway模塊
- 16.file-center模塊
- 17.log-center模塊
- 18.back-center模塊
- 19.auth-sso模塊
- 20.admin-server模塊
- 21.zipkin-center模塊
- 22.job-center模塊
- 23.batch-center
- 04.全新網關
- 01.基于spring cloud gateway的new-api-gateway
- 02.spring cloud gateway整合Spring Security Oauth
- 03.基于spring cloud gateway的redis動態路由
- 04.spring cloud gateway聚合swagger文檔
- 05.技術詳解
- 01.互聯網系統設計原則
- 02.系統冪等性設計與實踐
- 03.Oauth最簡向導開發指南
- 04.oauth jdbc持久化策略
- 05.JWT token方式啟用
- 06.token有效期的處理
- 07.@PreAuthorize注解分析
- 08.獲取當前用戶信息
- 09.認證授權白名單配置
- 10.OCP權限設計
- 11.服務安全流程
- 12.認證授權詳解
- 13.驗證碼技術
- 14.短信驗證碼登錄
- 15.動態數據源配置
- 16.分頁插件使用
- 17.緩存擊穿
- 18.分布式主鍵生成策略
- 19.分布式定時任務
- 20.分布式鎖
- 21.網關多維度限流
- 22.跨域處理
- 23.容錯限流
- 24.應用訪問次數控制
- 25.統一業務異常處理
- 26.日志埋點
- 27.GPRC內部通信
- 28.服務間調用
- 29.ribbon負載均衡
- 30.微服務分布式跟蹤
- 31.異步與線程傳遞變量
- 32.死信隊列延時消息
- 33.單元測試用例
- 34.Greenwich.RELEASE升級
- 35.混沌工程質量保證
- 06.開發初探
- 1.開發技巧
- 2.crud例子
- 3.新建服務
- 4.區分前后臺用戶
- 07.分表分庫
- 08.分布式事務
- 1.Seata介紹
- 2.Seata部署
- 09.shell部署
- 01.eureka-server
- 02.user-center
- 03.auth-server
- 04.api-gateway
- 05.file-center
- 06.log-center
- 07.back-center
- 08.編寫shell腳本
- 09.集群shell部署
- 10.集群shell啟動
- 11.部署阿里云問題
- 10.網關安全
- 1.openresty https保障服務安全
- 2.openresty WAF應用防火墻
- 3.openresty 高可用
- 11.docker配置
- 01.docker安裝
- 02.Docker 開啟遠程API
- 03.采用docker方式打包到服務器
- 04.docker創建mysql
- 05.docker網絡原理
- 06.docker實戰
- 6.01.安裝docker
- 6.02.管理鏡像基本命令
- 6.03.容器管理
- 6.04容器數據持久化
- 6.05網絡模式
- 6.06.Dockerfile
- 6.07.harbor部署
- 6.08.使用自定義鏡像
- 12.統一監控中心
- 01.spring boot admin監控
- 02.Arthas診斷利器
- 03.nginx監控(filebeat+es+grafana)
- 04.Prometheus監控
- 05.redis監控(redis+prometheus+grafana)
- 06.mysql監控(mysqld_exporter+prometheus+grafana)
- 07.elasticsearch監控(elasticsearch-exporter+prometheus+grafana)
- 08.linux監控(node_exporter+prometheus+grafana)
- 09.micoservice監控
- 10.nacos監控
- 11.druid數據源監控
- 12.prometheus.yml
- 13.grafana告警
- 14.Alertmanager告警
- 15.監控微信告警
- 16.關于接口監控告警
- 17.prometheus-HA架構
- 18.總結
- 13.統一日志中心
- 01.統一日志中心建設意義
- 02.通過ELK收集mysql慢查詢日志
- 03.通過elk收集微服務模塊日志
- 04.通過elk收集nginx日志
- 05.統一日志中心性能優化
- 06.kibana安裝部署
- 07.日志清理方案
- 08.日志性能測試指標
- 09.總結
- 14.數據查詢平臺
- 01.數據查詢平臺架構
- 02.mysql配置bin-log
- 03.單節點canal-server
- 04.canal-ha部署
- 05.canal-kafka部署
- 06.實時增量數據同步mysql
- 07.canal監控
- 08.clickhouse運維常見腳本
- 15.APM監控
- 1.Elastic APM
- 2.Skywalking
- 01.docker部署es
- 02.部署skywalking-server
- 03.部署skywalking-agent
- 16.壓力測試
- 1.ocp.jmx
- 2.test.bat
- 3.壓測腳本
- 4.壓力報告
- 5.報告分析
- 6.壓測平臺
- 7.并發測試
- 8.wrk工具
- 9.nmon
- 10.jmh測試
- 17.SQL優化
- 1.oracle篇
- 01.基線測試
- 02.調優前奏
- 03.線上瓶頸定位
- 04.執行計劃解讀
- 05.高級SQL語句
- 06.SQL tuning
- 07.數據恢復
- 08.深入10053事件
- 09.深入10046事件
- 2.mysql篇
- 01.innodb存儲引擎
- 02.BTree索引
- 03.執行計劃
- 04.查詢優化案例分析
- 05.為什么會走錯索引
- 06.表連接優化問題
- 07.Connection連接參數
- 08.Centos7系統參數調優
- 09.mysql監控
- 10.高級SQL語句
- 11.常用維護腳本
- 12.percona-toolkit
- 18.redis高可用方案
- 1.免密登錄
- 2.安裝部署
- 3.配置文件
- 4.啟動腳本
- 19.消息中間件搭建
- 19-01.rabbitmq集群搭建
- 01.rabbitmq01
- 02.rabbitmq02
- 03.rabbitmq03
- 04.鏡像隊列
- 05.haproxy搭建
- 06.keepalived
- 19-02.rocketmq搭建
- 19-03.kafka集群
- 20.mysql高可用方案
- 1.環境
- 2.mysql部署
- 3.Xtrabackup部署
- 4.Galera部署
- 5.galera for mysql 集群
- 6.haproxy+keepalived部署
- 21.es集群部署
- 22.生產實施優化
- 1.linux優化
- 2.jvm優化
- 3.feign優化
- 4.zuul性能優化
- 23.線上問題診斷
- 01.CPU性能評估工具
- 02.內存性能評估工具
- 03.IO性能評估工具
- 04.網絡問題工具
- 05.綜合診斷評估工具
- 06.案例診斷01
- 07.案例診斷02
- 08.案例診斷03
- 09.案例診斷04
- 10.遠程debug
- 24.fiddler抓包實戰
- 01.fiddler介紹
- 02.web端抓包
- 03.app抓包
- 25.疑難解答交流
- 01.有了auth/token獲取token了為啥還要配置security的登錄配置
- 02.權限數據存放在redis嗎,代碼在哪里啊
- 03.其他微服務和認證中心的關系
- 04.改包問題
- 05.use RequestContextListener or RequestContextFilter to expose the current request
- 06./oauth/token對應代碼在哪里
- 07.驗證碼出不來
- 08./user/login
- 09.oauth無法自定義權限表達式
- 10.sleuth引發線程數過高問題
- 11.elk中使用7x版本問題
- 12.RedisCommandTimeoutException問題
- 13./oauth/token CPU過高
- 14.feign與權限標識符問題
- 15.動態路由RedisCommandInterruptedException: Command interrupted
- 26.學習資料
- 海量學習資料等你來拿
- 27.持續集成
- 01.git安裝
- 02.代碼倉庫gitlab
- 03.代碼倉庫gogs
- 04.jdk&&maven
- 05.nexus安裝
- 06.sonarqube
- 07.jenkins
- 28.Rancher部署
- 1.rancher-agent部署
- 2.rancher-server部署
- 3.ocp后端部署
- 4.演示前端部署
- 5.elk部署
- 6.docker私服搭建
- 7.rancher-server私服
- 8.rancher-agent docker私服
- 29.K8S部署OCP
- 01.準備OCP的構建環境和部署環境
- 02.部署順序
- 03.在K8S上部署eureka-server
- 04.在K8S上部署mysql
- 05.在K8S上部署redis
- 06.在K8S上部署auth-server
- 07.在K8S上部署user-center
- 08.在K8S上部署api-gateway
- 09.在K8S上部署back-center
- 30.Spring Cloud Alibaba
- 01.統一的依賴管理
- 02.nacos-server
- 03.生產可用的Nacos集群
- 04.nacos配置中心
- 05.common.yaml
- 06.user-center
- 07.auth-server
- 08.api-gateway
- 09.log-center
- 10.file-center
- 11.back-center
- 12.sentinel-dashboard
- 12.01.sentinel流控規則
- 12.02.sentinel熔斷降級規則
- 12.03.sentinel熱點規則
- 12.04.sentinel系統規則
- 12.05.sentinel規則持久化
- 12.06.sentinel總結
- 13.sentinel整合openfeign
- 14.sentinel整合網關
- 1.sentinel整合zuul
- 2.sentinel整合scg
- 15.Dubbo與Nacos共存
- 31.Java源碼剖析
- 01.基礎數據類型和String
- 02.Arrays工具類
- 03.ArrayList源碼分析
- 32.面試專題匯總
- 01.JVM專題匯總
- 02.多線程專題匯總
- 03.Spring專題匯總
- 04.springboot專題匯總
- 05.springcloud面試匯總
- 文檔問題跟蹤處理