[TOC]
# 主從
讀寫分離可以看這個:
[https://help.aliyun.com/document\_detail/85143.html?spm=a2c4g.11186623.2.14.6ab869abTLXJBz](https://help.aliyun.com/document_detail/85143.html?spm=a2c4g.11186623.2.14.6ab869abTLXJBz)
## 簡介

mysql復制過程分成三步:
1. master將改變記錄到二進制日志(binary log).這些記錄過程叫做二進制日志事件,`binary log events`
2. slave將master的`binary log events`拷貝到他的中繼日志
3. slave重做中繼日志中的事件,將改變應用到自己的數據庫中.mysql復制是異步的而且串行化的
**復制的基本原則**
* 每個slave只有一個master
* 每個slave只能有一個唯一的服務器ID
* 每個master可以有多個slave
**異步半同步區別**
1. 異步復制
簡單的說就是master把binlog發送過去,不管slave是否接收完,也不管是否執行完,這一動作就結束了.
2. 半同步復制
簡單的說就是master把binlog發送過去,slave確認接收完,但不管它是否執行完,給master一個信號我這邊收到了,這一動作就結束了。(谷歌寫的代碼,5.5上正式應用。)
3. 異步的劣勢
當master上寫操作繁忙時,當前POS點例如是10,而slave上IO\_THREAD線程接收過來的是3,此時master宕機,會造成相差7個點未傳送到slave上而數據丟失。
**binlog作用**
記錄數據庫的增刪改查sql語句,二進制文件.
參數說明
-F: 備份后立即刷新binlog日志
`--master-date`=1或者2.備份語句中添加`change master`語句,記錄binlog位置點
開啟binlog,創建rep用戶,授權`replication slave`
binlog轉儲線程
當從服務器與主服務器連接時,主服務器會創建一個線程將二進制日志內容發送到從服務器。
該線程可以使用 語句`SHOW PROCESSLIST`(下面有示例介紹) 在服務器 sql 控制臺輸出中標識為Binlog Dump線程。
二進制日志轉儲線程獲取服務器上二進制日志上的鎖,用于讀取要發送到從服務器的每個事件。一旦事件被讀取,即使在將事件發送到從服務器之前,鎖會被釋放。
**master.info**
記錄主庫的binlog信息
**relay log**
將slaveIO線程讀取到的binlog數據寫入relaylog,由relaylog.info管理.
等待sql線程讀取內容并轉為sql語句并寫入到slave
## 常見配置
**注意創建文件夾的時候權限問題**
* 主從都配置在`[mysqld]`節點下,而且都是小寫
* 主機修改my.ini配置文件(必須主服務器唯一id)
* 從修改my.ini(必須: 從服務器唯一ID, 可選: 啟用二進制日志)
* 必須啟用二進制配置文件
* 停止從服務復制功能`stop slave;`
### 主節點配置
配置文件`[mysqld]`
配置唯一id
~~~
server-id=1
~~~
配置mysqlbin和錯誤日志
沒有data文件夾,那就自己創建一個
log-bin=自己本地路徑/mysqlbin
log-err=自己本地路徑/mysqlerr
~~~
log-bin=/usr/share/mysql/data/mysqlbin
log-error=/usr/share/mysql/data/mysqlerr
~~~
主機讀寫都可以
~~~
read-only=0
~~~
可選
* 根目錄,basedir="路徑"
* 臨時目錄,tmpdir="路徑"
* 數據目錄="自己本地路徑/data"
* 設置不要復制的數據庫 `binlog-ignore-db=mysql`
* 設置需要復制的數據庫 `binlog-do-db=需要復制的主數據庫名`
其余配置
~~~bash
relay_log=relay-bin #開啟中繼日志 (日志存儲位置盡量不要同數據存儲同一磁盤同一目錄,這里測試方便不重新指向)
binlog-format=row #日志格式三種:STATEMENT,ROW,MIXED
log-slave-updates=true # 配置從服務器的更新寫入二進制日志
~~~
~~~sql
mysql> show variables like 'log_%'; #查看日志是否開啟
~~~
log\_bin、relay\_log,二進制日志和中繼日志盡量不要跟數據存儲放在同一磁盤同一目錄,防止硬盤損壞時日志也丟失
### 從節點配置
必須:從節點id
可選: 啟用二進制日志
~~~
log-bin=mysql-bin
~~~
其余配置
~~~bash
relay_log=relay-bin
binlog-format=row
log-slave-updates=true
sever_id=2
#relay_log_purge=0 #禁止自動刪除中繼日志(slave配置文件多了下面這兩條),如果是MHA開啟此
~~~
啟動從庫
~~~bash
mysql -uroot -p123456 -e "set global read_only=1" #從庫只讀,不建議寫在配置文件中
~~~
### 主節點備份數據
要把表結構什么的都在從庫上回放,不然主從復制會報錯
~~~bash
[root@node01 /]# mysqldump -uroot -p123456 -h192.168.2.70 --master-data=2 --single-transaction -R --triggers -A > /home/soft/all.sql;
~~~
說明:
\--master-data=2代表備份時刻記錄master的Binlog位置和Position
\--single-transaction意思是獲取一致性快照
\-R意思是備份存儲過程和函數
\--triggres的意思是備份觸發器
\-A代表備份所有的庫
查看更多信息mysqldump --help
**從庫要回放數據**
### 創建用戶
~~~
flush privileges;
# 創建個從用戶replication
Grant replication slave on *.* to 'repl'@'%' identified by '123456';
flush privileges;
~~~
查詢master的狀態,并記錄下file和position的值(意思就是這個文件的這個位置開始復制).
~~~
mysql> show master status;
+-----------------+----------+--------------+------------------+-------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+-----------------+----------+--------------+------------------+-------------------+
| mysqlbin.000002 | 154 | | mysql | |
+-----------------+----------+--------------+------------------+-------------------+
1 row in set (0.00 sec)
~~~
**建議用這種方式,上一種,如果中間有人修改數據,復制點就變了**
查看Master主庫備份時的binlog名稱和位置,MASTER\_LOG\_FILE和MASTER\_LOG\_POS:
~~~bash
[root@node01 soft]# head -n 30 /home/soft/all.sql | grep 'CHANGE MASTER TO'
-- CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000001', MASTER_LOG_POS=154;
~~~
### 從庫配置
重啟從庫
連接從庫,準備從當前點開始復制
~~~
mysql> stop slave; #暫停從庫
mysql> CHANGE MASTER TO MASTER_HOST='192.168.33.80',
-> MASTER_USER='repl',
-> MASTER_PASSWORD='123456',
-> MASTER_LOG_FILE='mysqlbin.000002',
-> MASTER_LOG_POS=1264;
Query OK, 0 rows affected, 2 warnings (0.02 sec)
mysql> start slave;
Query OK, 0 rows affected (0.00 sec)
~~~
查看下狀態
~~~
mysql> show slave status\G;
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 192.168.33.80
Master_User: repl
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: mysqlbin.000002
Read_Master_Log_Pos: 1264
Relay_Log_File: relay-bin.000002
Relay_Log_Pos: 319
Relay_Master_Log_File: mysqlbin.000002
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
~~~
看 `Slave_IO_State`以及`Slave_IO_Running`和`Slave_SQL_Running`都為yes
出問題,就看下面的error是什么,或者看日志
## 故障切換
確保所有主從數據庫都開啟二進制日志
~~~
mysql> show variables like 'log_bin';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| log_bin | ON |
+---------------+-------+
1 row in set (0.01 sec)
~~~
確保切換時數據時從庫都是最新先把主庫設為只讀:set global read\_only=1;
并且刷新一下主庫log-bin日志
~~~sql
mysql> show variables like 'read_only';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| read_only | ON |
+---------------+-------+
1 row in set (0.00 sec)
mysql> flush logs;
Query OK, 0 rows affected (0.02 sec)
~~~
### 主故障
把主節點關閉
從節點
~~~
mysql> show slave status\G;
~~~
會發現,io也連接不上
~~~
Last_IO_Error: error reconnecting to master
~~~
1. 確保所有的`relay log`全部讀取完畢
**在所有從庫上**
~~~
mysql> stop slave io_thread;
Query OK, 0 rows affected (0.00 sec)
mysql> show processlist;
+----+-------------+--------------+--------+---------+------+--------------------------------------------------------+------------------+
| Id | User | Host | db | Command | Time | State | Info |
+----+-------------+--------------+--------+---------+------+--------------------------------------------------------+------------------+
| 2 | root | localhost | NULL | Query | 0 | starting | show processlist |
| 4 | system user | | NULL | Connect | 2284 | Slave has read all relay log; waiting for more updates | NULL |
| 5 | root | 192.168.33.5 | mytest | Sleep | 457 | | NULL |
| 6 | root | 192.168.33.5 | mytest | Sleep | 458 | | NULL |
+----+-------------+--------------+--------+---------+------+--------------------------------------------------------+------------------+
4 rows in set (0.00 sec)
~~~
直到看到`Slave has read all relay log; waitingfor more updates`,則表示從庫更新都執行完畢了.
或者通過`show slave status\G;`查看
2. 選擇新的主庫
`show slave status\G;`
對比選擇`Relay_Master_Log_File`,`Exec_Master_Log_Pos`最大的作為新的主庫,這里我們選擇slave1為新的主庫(如果兩個從IO進程一直都是正常,沒有落后于主,且`relay log`都已經重放完成,兩個從是一樣的,選擇哪個都可以)
3. 進行相應的配置
在slave1上,執行:
~~~
mysql> stop slave;
~~~
進入datadir,刪除`master.info` 和 `relay-log.info`(刪除前,可以先備份)
~~~
$ rm -rf master.info
$ rm -rf relay-log.info
~~~
配置my.cnf文件,開啟`log-bin`,如果有`log-slaves-updates=1`和`read-only=1`則要注釋掉,
然后重啟slave1或在線修改參數。
master.info:記錄了mysql主服務器上的日志文件和記錄位置、連接的密碼。
4. 其他slave配置
slave2也要刪除這2個文件,或者`reset slave;`
`reset slave`將清除slave上的同步位置,刪除所有舊的同步日志,使用新的日志重新開始,這正是我們想要的。需要注意的是,必須先停止slave服務(STOP SLAVE),我們已經在第一步停止了它。
5. `reset master`
在slave1上`reset master`,重新生成二進制日志。(RESET MASTER將刪除所有的二進制日志,創建一個.000001的空日志。如果盲目的在主庫上執行這個命令會導致slave找不到master的binlog,造成同步失敗。)
~~~
mysql> reset master;
Query OK, 0 rows affected (0.01 sec)
mysql> show binary logs;
+------------------+-----------+
| Log_name | File_size |
+------------------+-----------+
| mysql-bin.000001 | 154 |
+------------------+-----------+
1 row in set (0.00 sec)
~~~
6. 在slave1上創建用于同步的用戶
~~~
flush privileges;
# 創建個從用戶replication
Grant replication slave on *.* to 'repl'@'%' identified by '123456';
flush privileges;
~~~
6. 重建主從,將slave2指向slave1
記得是slave1的ip
~~~
mysql> stop slave;
Query OK, 0 rows affected (0.00 sec)
mysql> CHANGE MASTER TO MASTER_HOST='192.168.33.81',
-> MASTER_USER='repl',
-> MASTER_PASSWORD='123456',
-> MASTER_LOG_FILE='mysql-bin.000001',
-> MASTER_LOG_POS=154;
Query OK, 0 rows affected, 2 warnings (0.01 sec)
mysql> start slave;
Query OK, 0 rows affected (0.00 sec)
~~~
`show slave status\G;`查看下
## 常見問題
常見排查問題
~~~
mysql> show processlist; 查看下進程是否Sleep太多。發現很正常。?
mysql> show master status\G;
mysql> show slave status\G;
~~~
**主從復制,中繼日志不斷增長,如何設置中繼日志自動清除?**
配置文件my.cnf,在mysqld下增添
~~~
relay_log_purge=1 (自動清除中繼日志打開)
~~~
**主從同步失敗,如何快速同步?**
跳過出現指定錯誤的SQL.
如果要斷開主從架構,應先stop slave io\_thread;
等待執行完relay log里的內容再stop slave;
~~~
#表示跳過一步錯誤,后面的數字可變
stop slave;
set global sql_slave_skip_counter=1;
start slave;
# 之后再用mysql> show slave status\G 查看:
~~~
- 基礎
- 編譯和安裝
- classpath到底是什么?
- 編譯運行
- 安裝
- sdkman多版本
- jabba多版本
- java字節碼查看
- 數據類型
- 簡介
- 整形
- char和int
- 變量和常量
- 大數值運算
- 基本類型包裝類
- Math類
- 內存劃分
- 位運算符
- 方法相關
- 方法重載
- 可變參數
- 方法引用
- 面向對象
- 定義
- 繼承和覆蓋
- 接口和抽象類
- 接口定義增強
- 內建函數式接口
- 多態
- 泛型
- final和static
- 內部類
- 包
- 修飾符
- 異常
- 枚舉類
- 代碼塊
- 對象克隆
- BeanUtils
- java基礎類
- scanner類
- Random類
- System類
- Runtime類
- Comparable接口
- Comparator接口
- MessageFormat類
- NumberFormat
- 數組相關
- 數組
- Arrays
- string相關
- String
- StringBuffer
- StringBuilder
- 正則
- 日期類
- Locale類
- Date
- DateFormat
- SimpleDateFormat
- Calendar
- 新時間日期API
- 簡介
- LocalDate,LocalTime,LocalDateTime
- Instant時間點
- 帶時區的日期,時間處理
- 時間間隔
- 日期時間校正器
- TimeUnit
- 用yyyy
- 集合
- 集合和迭代器
- ArrayList集合
- List
- Set
- 判斷集合唯一
- Map和Entry
- stack類
- Collections集合工具類
- Stream數據流
- foreach不能修改內部元素
- of方法
- IO
- File類
- 字節流stream
- 字符流Reader
- IO流分類
- 轉換流
- 緩沖流
- 流的操作規律
- properties
- 序列化流與反序列化流
- 打印流
- System類對IO支持
- commons-IO
- IO流總結
- NIO
- 異步與非阻塞
- IO通信
- Unix的IO模型
- epoll對于文件描述符操作模式
- 用戶空間和內核空間
- NIO與普通IO的主要區別
- Paths,Path,Files
- Buffer
- Channel
- Selector
- Pipe
- Charset
- NIO代碼
- 多線程
- 創建線程
- 線程常用方法
- 線程池相關
- 線程池概念
- ThreadPoolExecutor
- Runnable和Callable
- 常用的幾種線程池
- 線程安全
- 線程同步的幾種方法
- synchronized
- 死鎖
- lock接口
- ThreadLoad
- ReentrantLock
- 讀寫鎖
- 鎖的相關概念
- volatile
- 釋放鎖和不釋放鎖的操作
- 等待喚醒機制
- 線程狀態
- 守護線程和普通線程
- Lamda表達式
- 反射相關
- 類加載器
- 反射
- 注解
- junit注解
- 動態代理
- 網絡編程相關
- 簡介
- UDP
- TCP
- 多線程socket上傳圖片
- NIO
- JDBC相關
- JDBC
- 預處理
- 批處理
- 事務
- properties配置文件
- DBUtils
- DBCP連接池
- C3P0連接池
- 獲得MySQL自動生成的主鍵
- Optional類
- Jigsaw模塊化
- 日志相關
- JDK日志
- log4j
- logback
- xml
- tomcat
- maven
- 簡介
- 倉庫
- 目錄結構
- 常用命令
- 生命周期
- idea配置
- jar包沖突
- 依賴范圍
- 私服
- 插件
- git-commit-id-plugin
- maven-assembly-plugin
- maven-resources-plugin
- maven-compiler-plugin
- versions-maven-plugin
- maven-source-plugin
- tomcat-maven-plugin
- 多環境
- 自定義插件
- stream
- swing
- json
- jackson
- optional
- junit
- gradle
- servlet
- 配置
- ServletContext
- 生命周期
- HttpServlet
- request
- response
- 亂碼
- session和cookie
- cookie
- session
- jsp
- 簡介
- 注釋
- 方法,成員變量
- 指令
- 動作標簽
- 隱式對象
- EL
- JSTL
- javaBean
- listener監聽器
- Filter過濾器
- 圖片驗證碼
- HttpUrlConnection
- 國際化
- 文件上傳
- 文件下載
- spring
- 簡介
- Bean
- 獲取和實例化
- 屬性注入
- 自動裝配
- 繼承和依賴
- 作用域
- 使用外部屬性文件
- spel
- 前后置處理器
- 生命周期
- 掃描規則
- 整合多個配置文件
- 注解
- 簡介
- 注解分層
- 類注入
- 分層和作用域
- 初始化方法和銷毀方法
- 屬性
- 泛型注入
- Configuration配置文件
- aop
- aop的實現
- 動態代理實現
- cglib代理實現
- aop名詞
- 簡介
- aop-xml
- aop-注解
- 代理方式選擇
- jdbc
- 簡介
- JDBCTemplate
- 事務
- 整合
- junit整合
- hibernate
- 簡介
- hibernate.properties
- 實體對象三種狀態
- 檢索方式
- 簡介
- 導航對象圖檢索
- OID檢索
- HQL
- Criteria(QBC)
- Query
- 緩存
- 事務管理
- 關系映射
- 注解
- 優化
- MyBatis
- 簡介
- 入門程序
- Mapper動態代理開發
- 原始Dao開發
- Mapper接口開發
- SqlMapConfig.xml
- map映射文件
- 輸出返回map
- 輸入參數
- pojo包裝類
- 多個輸入參數
- resultMap
- 動態sql
- 關聯
- 一對一
- 一對多
- 多對多
- 整合spring
- CURD
- 占位符和sql拼接以及參數處理
- 緩存
- 延遲加載
- 注解開發
- springMVC
- 簡介
- RequestMapping
- 參數綁定
- 常用注解
- 響應
- 文件上傳
- 異常處理
- 攔截器
- springBoot
- 配置
- 熱更新
- java配置
- springboot配置
- yaml語法
- 運行
- Actuator 監控
- 多環境配置切換
- 日志
- 日志簡介
- logback和access
- 日志文件配置屬性
- 開機自啟
- aop
- 整合
- 整合Redis
- 整合Spring Data JPA
- 基本查詢
- 復雜查詢
- 多數據源的支持
- Repository分析
- JpaSpeci?cationExecutor
- 整合Junit
- 整合mybatis
- 常用注解
- 基本操作
- 通用mapper
- 動態sql
- 關聯映射
- 使用xml
- spring容器
- 整合druid
- 整合郵件
- 整合fastjson
- 整合swagger
- 整合JDBC
- 整合spingboot-cache
- 請求
- restful
- 攔截器
- 常用注解
- 參數校驗
- 自定義filter
- websocket
- 響應
- 異常錯誤處理
- 文件下載
- 常用注解
- 頁面
- Thymeleaf組件
- 基本對象
- 內嵌對象
- 上傳文件
- 單元測試
- 模擬請求測試
- 集成測試
- 源碼解析
- 自動配置原理
- 啟動流程分析
- 源碼相關鏈接
- Servlet,Filter,Listener
- springcloud
- 配置
- 父pom
- 創建子工程
- Eureka
- Hystrix
- Ribbon
- Feign
- Zuul
- kotlin
- 基本數據類型
- 函數
- 區間
- 區塊鏈
- 簡介
- linux
- ulimit修改
- 防止syn攻擊
- centos7部署bbr
- debain9開啟bbr
- mysql
- 隔離性
- sql執行加載順序
- 7種join
- explain
- 索引失效和優化
- 表連接優化
- orderby的filesort問題
- 慢查詢
- show profile
- 全局查詢日志
- 死鎖解決
- sql
- 主從
- IDEA
- mac快捷鍵
- 美化界面
- 斷點調試
- 重構
- springboot-devtools熱部署
- IDEA進行JAR打包
- 導入jar包
- ProjectStructure
- toString添加json模板
- 配置maven
- Lombok插件
- rest client
- 文檔顯示
- sftp文件同步
- 書簽
- 代碼查看和搜索
- postfix
- live template
- git
- 文件頭注釋
- JRebel
- 離線模式
- xRebel
- github
- 連接mysql
- 選項沒有Java class的解決方法
- 擴展
- 項目配置和web部署
- 前端開發
- json和Inject language
- idea內存和cpu變高
- 相關設置
- 設計模式
- 單例模式
- 簡介
- 責任鏈
- JUC
- 原子類
- 原子類簡介
- 基本類型原子類
- 數組類型原子類
- 引用類型原子類
- JVM
- JVM規范內存解析
- 對象的創建和結構
- 垃圾回收
- 內存分配策略
- 備注
- 虛擬機工具
- 內存模型
- 同步八種操作
- 內存區域大小參數設置
- happens-before
- web service
- tomcat
- HTTPS
- nginx
- 變量
- 運算符
- 模塊
- Rewrite規則
- Netty
- netty為什么沒用AIO
- 基本組件
- 源碼解讀
- 簡單的socket例子
- 準備netty
- netty服務端啟動
- 案例一:發送字符串
- 案例二:發送對象
- websocket
- ActiveMQ
- JMS
- 安裝
- 生產者-消費者代碼
- 整合springboot
- kafka
- 簡介
- 安裝
- 圖形化界面
- 生產過程分析
- 保存消息分析
- 消費過程分析
- 命令行
- 生產者
- 消費者
- 攔截器interceptor
- partition
- kafka為什么快
- kafka streams
- kafka與flume整合
- RabbitMQ
- AMQP
- 整體架構
- RabbitMQ安裝
- rpm方式安裝
- 命令行和管控頁面
- 消息生產與消費
- 整合springboot
- 依賴和配置
- 簡單測試
- 多方測試
- 對象支持
- Topic Exchange模式
- Fanout Exchange訂閱
- 消息確認
- java client
- RabbitAdmin和RabbitTemplate
- 兩者簡介
- RabbitmqAdmin
- RabbitTemplate
- SimpleMessageListenerContainer
- MessageListenerAdapter
- MessageConverter
- 詳解
- Jackson2JsonMessageConverter
- ContentTypeDelegatingMessageConverter
- lucene
- 簡介
- 入門程序
- luke查看索引
- 分析器
- 索引庫維護
- elasticsearch
- 配置
- 插件
- head插件
- ik分詞插件
- 常用術語
- Mapping映射
- 數據類型
- 屬性方法
- Dynamic Mapping
- Index Template 索引模板
- 管理映射
- 建立映射
- 索引操作
- 單模式下CURD
- mget多個文檔
- 批量操作
- 版本控制
- 基本查詢
- Filter過濾
- 組合查詢
- 分析器
- redis
- String
- list
- hash
- set
- sortedset
- 發布訂閱
- 事務
- 連接池
- 管道
- 分布式可重入鎖
- 配置文件翻譯
- 持久化
- RDB
- AOF
- 總結
- Lettuce
- zookeeper
- zookeeper簡介
- 集群部署
- Observer模式
- 核心工作機制
- zk命令行操作
- zk客戶端API
- 感知服務動態上下線
- 分布式共享鎖
- 原理
- zab協議
- 兩階段提交協議
- 三階段提交協議
- Paxos協議
- ZAB協議
- hadoop
- 簡介
- hadoop安裝
- 集群安裝
- 單機安裝
- linux編譯hadoop
- 添加新節點
- 退役舊節點
- 集群間數據拷貝
- 歸檔
- 快照管理
- 回收站
- 檢查hdfs健康狀態
- 安全模式
- hdfs簡介
- hdfs命令行操作
- 常見問題匯總
- hdfs客戶端操作
- mapreduce工作機制
- 案例-單詞統計
- 局部聚合Combiner
- combiner流程
- combiner案例
- 自定義排序
- 自定義Bean對象
- 排序的分類
- 案例-按總量排序需求
- 一次性完成統計和排序
- 分區
- 分區簡介
- 案例-結果分區
- 多表合并
- reducer端合并
- map端合并(分布式緩存)
- 分組
- groupingComparator
- 案例-求topN
- 全局計數器
- 合并小文件
- 小文件的弊端
- CombineTextInputFormat機制
- 自定義InputFormat
- 自定義outputFormat
- 多job串聯
- 倒排索引
- 共同好友
- 串聯
- 數據壓縮
- InputFormat接口實現類
- yarn簡介
- 推測執行算法
- 本地提交到yarn
- 框架運算全流程
- 數據傾斜問題
- mapreduce的優化方案
- HA機制
- 優化
- Hive
- 安裝
- shell參數
- 數據類型
- 集合類型
- 數據庫
- DDL操作
- 創建表
- 修改表
- 分區表
- 分桶表
- DML操作
- load
- insert
- select
- export,import
- Truncate
- 注意
- 嚴格模式
- 函數
- 內置運算符
- 內置函數
- 自定義函數
- Transfrom實現
- having和where不同
- 壓縮
- 存儲
- 存儲和壓縮結合使用
- explain詳解
- 調優
- Fetch抓取
- 本地模式
- 表的優化
- GroupBy
- count(Distinct)去重統計
- 行列過濾
- 動態分區調整
- 數據傾斜
- 并行執行
- JVM重用
- 推測執行
- reduce內存和個數
- sql查詢結果作為變量(shell)
- youtube
- flume
- 簡介
- 安裝
- 常用組件
- 攔截器
- 案例
- 監聽端口到控制臺
- 采集目錄到HDFS
- 采集文件到HDFS
- 多個agent串聯
- 日志采集和匯總
- 單flume多channel,sink
- 自定義攔截器
- 高可用配置
- 使用注意
- 監控Ganglia
- sqoop
- 安裝
- 常用命令
- 數據導入
- 準備數據
- 導入數據到HDFS
- 導入關系表到HIVE
- 導入表數據子集
- 增量導入
- 數據導出
- 打包腳本
- 作業
- 原理
- azkaban
- 簡介
- 安裝
- 案例
- 簡介
- command類型單一job
- command類型多job工作流flow
- HDFS操作任務
- mapreduce任務
- hive腳本任務
- oozie
- 安裝
- hbase
- 簡介
- 系統架構
- 物理存儲
- 尋址機制
- 讀寫過程
- 安裝
- 命令行
- 基本CURD
- java api
- CURD
- CAS
- 過濾器查詢
- 建表高級屬性
- 與mapreduce結合
- 與sqoop結合
- 協處理器
- 參數配置優化
- 數據備份和恢復
- 節點管理
- 案例-點擊流
- 簡介
- HUE
- 安裝
- storm
- 簡介
- 安裝
- 集群啟動及任務過程分析
- 單詞統計
- 單詞統計(接入kafka)
- 并行度和分組
- 啟動流程分析
- ACK容錯機制
- ACK簡介
- BaseRichBolt簡單使用
- BaseBasicBolt簡單使用
- Ack工作機制
- 本地目錄樹
- zookeeper目錄樹
- 通信機制
- 案例
- 日志告警
- 工具
- YAPI
- chrome無法手動拖動安裝插件
- 時間和空間復雜度
- jenkins
- 定位cpu 100%
- 常用腳本工具
- OOM問題定位
- scala
- 編譯
- 基本語法
- 函數
- 數組常用方法
- 集合
- 并行集合
- 類
- 模式匹配
- 異常
- tuple元祖
- actor并發編程
- 柯里化
- 隱式轉換
- 泛型
- 迭代器
- 流stream
- 視圖view
- 控制抽象
- 注解
- spark
- 企業架構
- 安裝
- api開發
- mycat
- Groovy
- 基礎