**特征圖:** 特征中往往編碼了某種模式或概念在特征圖的不同位置是否存在
**邊界效應**:開始的輸入尺寸為 28×28,經過第一個卷積層之后尺寸變為 26×26。

**填充**(padding):在輸入特征圖的每一邊添加適當數目的行和列,使得每個輸入方塊都能作為卷積窗口的中心。

`Conv2D`層,通過`padding`參數來設置填充 :
* `"valid"`表示不使用填充(只使用有效的窗口位置)(默認)
* `"same"`表示填充后輸出的寬度和高度與輸入相同
**步幅**:兩個連續窗口的距離是卷積的一個參數,叫作**步幅**,默認值為 1
**步進卷積**(strided convolution):步幅大于 1 的卷積。步幅為 2 意味著特征圖的寬度和高度都被做了 2 倍下采樣。

**最大池化運算:**
* 對特征圖進行下采樣,通常使用**最大池化**(max-pooling)運算。
* 最大池化是從輸入特征圖中提取窗口,并輸出每個通道的**最大值**
* 最大池化使用硬編碼的`max`張量運算對局部圖塊進行變換
* 最大池化通常使用 2×2 的窗口和步幅 2

**為什么要用這種方式對特征圖下采樣?:**
* 這種架構不利于學習特征的空間層級結構,卷積層的特征包含輸入的整體信息太少。
* 最后一層的特征圖的元素太多,參數太多,會導致嚴重的過擬合。
**使用下采樣的原因:**
* 減少需要處理的特征圖的元素個數
* 通過讓**連續卷積層的觀察窗口**越來越大(即**窗口覆蓋原始輸入的比例**越來越大),從而引入空間過濾器的**層級結構**
- 基礎
- 張量tensor
- 整數序列(列表)=>張量
- 張量運算
- 張量運算的幾何解釋
- 層:深度學習的基礎組件
- 模型:層構成的網絡
- 訓練循環 (training loop)
- 數據類型與層類型、keras
- Keras
- Keras 開發
- Keras使用本地數據
- fit、predict、evaluate
- K 折 交叉驗證
- 二分類問題-基于梯度的優化-訓練
- relu運算
- Dens
- 損失函數與優化器:配置學習過程的關鍵
- 損失-二分類問題
- 優化器
- 過擬合 (overfit)
- 改進
- 小結
- 多分類問題
- 回歸問題
- 章節小結
- 機械學習
- 訓練集、驗證集和測試集
- 三種經典的評估方法
- 模型評估
- 如何準備輸入數據和目標?
- 過擬合與欠擬合
- 減小網絡大小
- 添加權重正則化
- 添加 dropout 正則化
- 通用工作流程
- 計算機視覺
- 卷積神經網絡
- 卷積運算
- 卷積的工作原理
- 訓練一個卷積神經網絡
- 使用預訓練的卷積神經網絡
- VGG16
- VGG16詳細結構
- 為什么不微調整個卷積基?
- 卷積神經網絡的可視化
- 中間輸出(中間激活)
- 過濾器
- 熱力圖
- 文本和序列
- 處理文本數據
- n-gram
- one-hot 編碼 (one-hot encoding)
- 標記嵌入 (token embedding)
- 利用 Embedding 層學習詞嵌入
- 使用預訓練的詞嵌入
- 循環神經網絡
- 循環神經網絡的高級用法
- 溫度預測問題
- code
- 用卷積神經網絡處理序列
- GRU 層
- LSTM層
- 多輸入模型
- 回調函數
- ModelCheckpoint 與 EarlyStopping
- ReduceLROnPlateau
- 自定義回調函數
- TensorBoard_TensorFlow 的可視化框架
- 高級架構模式
- 殘差連接
- 批標準化
- 批再標準化
- 深度可分離卷積
- 超參數優化
- 模型集成
- LSTM
- DeepDream
- 神經風格遷移
- 變分自編碼器
- 生成式對抗網絡
- 術語表