* **樣本**(sample)或**輸入**(input):進入模型的數據點。
* **預測**(prediction)或**輸出**(output):從模型出來的結果。
* **目標**(target):真實值。對于外部數據源,理想情況下,模型應該能夠預測出目標。
* **預測誤差**(prediction error)或**損失值**(loss value):模型預測與目標之間的距離。
* **類別**(class):分類問題中供選擇的一組標簽。例如,對貓狗圖像進行分類時,“狗”和“貓”就是兩個類別。
* **標簽**(label):分類問題中類別標注的具體例子。比如,如果 1234 號圖像被標注為包含類別“狗”,那么“狗”就是 1234 號圖像的標簽。
* **真值**(ground-truth)或**標注**(annotation):數據集的所有目標,通常由人工收集。
* **二分類**(binary classification):一種分類任務,每個輸入樣本都應被劃分到兩個互斥的類別中。
* **多分類**(multiclass classification):一種分類任務,每個輸入樣本都應被劃分到兩個以上的類別中,比如手寫數字分類。
* **多標簽分類**(multilabel classification):一種分類任務,每個輸入樣本都可以分配多個標簽。舉個例子,如果一幅圖像里可能既有貓又有狗,那么應該同時標注“貓”標簽和“狗”標簽。每幅圖像的標簽個數通常是可變的。
* **標量回歸**(scalar regression):目標是連續標量值的任務。預測房價就是一個很好的例子,不同的目標價格形成一個連續的空間。
* **向量回歸**(vector regression):目標是一組連續值(比如一個連續向量)的任務。如果對多個值(比如圖像邊界框的坐標)進行回歸,那就是向量回歸。
* **小批量**(mini-batch)或**批量**(batch):模型同時處理的一小部分樣本(樣本數通常為 8~128)。樣本數通常取 2 的冪,這樣便于 GPU 上的內存分配。訓練時,小批量用來為模型權重計算一次梯度下降更新。
- 基礎
- 張量tensor
- 整數序列(列表)=>張量
- 張量運算
- 張量運算的幾何解釋
- 層:深度學習的基礎組件
- 模型:層構成的網絡
- 訓練循環 (training loop)
- 數據類型與層類型、keras
- Keras
- Keras 開發
- Keras使用本地數據
- fit、predict、evaluate
- K 折 交叉驗證
- 二分類問題-基于梯度的優化-訓練
- relu運算
- Dens
- 損失函數與優化器:配置學習過程的關鍵
- 損失-二分類問題
- 優化器
- 過擬合 (overfit)
- 改進
- 小結
- 多分類問題
- 回歸問題
- 章節小結
- 機械學習
- 訓練集、驗證集和測試集
- 三種經典的評估方法
- 模型評估
- 如何準備輸入數據和目標?
- 過擬合與欠擬合
- 減小網絡大小
- 添加權重正則化
- 添加 dropout 正則化
- 通用工作流程
- 計算機視覺
- 卷積神經網絡
- 卷積運算
- 卷積的工作原理
- 訓練一個卷積神經網絡
- 使用預訓練的卷積神經網絡
- VGG16
- VGG16詳細結構
- 為什么不微調整個卷積基?
- 卷積神經網絡的可視化
- 中間輸出(中間激活)
- 過濾器
- 熱力圖
- 文本和序列
- 處理文本數據
- n-gram
- one-hot 編碼 (one-hot encoding)
- 標記嵌入 (token embedding)
- 利用 Embedding 層學習詞嵌入
- 使用預訓練的詞嵌入
- 循環神經網絡
- 循環神經網絡的高級用法
- 溫度預測問題
- code
- 用卷積神經網絡處理序列
- GRU 層
- LSTM層
- 多輸入模型
- 回調函數
- ModelCheckpoint 與 EarlyStopping
- ReduceLROnPlateau
- 自定義回調函數
- TensorBoard_TensorFlow 的可視化框架
- 高級架構模式
- 殘差連接
- 批標準化
- 批再標準化
- 深度可分離卷積
- 超參數優化
- 模型集成
- LSTM
- DeepDream
- 神經風格遷移
- 變分自編碼器
- 生成式對抗網絡
- 術語表