<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                企業??AI智能體構建引擎,智能編排和調試,一鍵部署,支持知識庫和私有化部署方案 廣告
                # 機器學習超級復習筆記 > 原文:[Super Machine Learning Revision Notes](https://createmomo.github.io/2018/01/23/Super-Machine-Learning-Revision-Notes/#negative_sampling) > > 譯者:[飛龍](https://github.com/wizardforcel/) > > 協議:[CC BY-NC-SA 4.0](http://creativecommons.org/licenses/by-nc-sa/4.0/) ### [最后更新:06/01/2019] 本文旨在概述: * **機器學習中的基本概念**(例如,梯度下降,反向傳播等) * **不同的算法和各種流行的模型** * 一些**實用技巧**和**示例**是從我自己的實踐和一些在線課程(如[DeepLearningAI](https://www.deeplearning.ai/) )中學習的。 **如果您是正在學習機器學習的學生**,希望本文可以幫助您縮短復習時間并給您帶來有益的啟發。 **如果您不是學生**,希望本文在您不記得某些模型或算法時會有所幫助。 此外,您也可以將其視為“**快速檢查指南**”。 請隨意使用`Ctrl + F`搜索您感興趣的任何關鍵字。 任何意見和建議都非常歡迎! * * * ### 激活函數 | 名稱 | 函數 | 導數 | | --- | --- | --- | | Sigmoid | ![](https://img.kancloud.cn/e9/ab/e9ab4ea0667755b98c824b14eab1e09b_115x39.gif) | ![](https://img.kancloud.cn/b9/53/b953912bc1d5a52621b429b109122afd_109x18.gif) | | tanh | ![](https://img.kancloud.cn/a7/eb/a7eb376d66f61d008ac890fe2ef5708b_59x18.gif) | ![](https://img.kancloud.cn/4d/2f/4d2f919f195404fd0b91721e7aae0a5e_110x20.gif) | | | | 如果為![](https://img.kancloud.cn/41/2b/412b028a0e75f3e2abd14dc656937f08_39x16.gif),則為 0 | | ReLU | ![](https://img.kancloud.cn/11/6e/116e47e2792f56194ddf2637b7a028fd_74x18.gif) | 如果 ![](https://img.kancloud.cn/60/16/6016e1dd8f06c3491dcdee89960b261c_42x16.gif) 則為 1 | | | | 如果 ![](https://img.kancloud.cn/04/3f/043ff2e89537177be41a2d474f9c52c6_42x12.gif) 則未定義 | | | | 如果 ![](https://img.kancloud.cn/41/2b/412b028a0e75f3e2abd14dc656937f08_39x16.gif) 則 0.01 | | LReLU | ![](https://img.kancloud.cn/1b/fa/1bfa063ceea0a9c34d64b5fdd856e98e_106x18.gif) | 如果 ![](https://img.kancloud.cn/60/16/6016e1dd8f06c3491dcdee89960b261c_42x16.gif) 則為 1 | | | | 如果 ![](https://img.kancloud.cn/04/3f/043ff2e89537177be41a2d474f9c52c6_42x12.gif) 則未定義 | ### 梯度下降 梯度下降是找到目標函數(例如損失函數)的局部最小值的一種迭代方法。 ``` Repeat{ W := W - learning_rate * dJ(W)/dW} ``` 符號![](https://img.kancloud.cn/c7/b9/c7b9951aeb0f79031a2d00ede41fc47e_17x8.gif)表示更新操作。 顯然,我們正在更新參數![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)的值。 通常,我們用![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif)表示學習率。 訓練神經網絡時,它是超參數之一(我們將在另一部分介紹更多的超參數)。 ![](https://img.kancloud.cn/e8/2e/e82e8a80def6ddaaf076709267415116_43x18.gif)是我們模型的損失函數。 ![](https://img.kancloud.cn/a2/d0/a2d0873f412a5fbdcd98bc53bdf5b3de_55x39.gif)是參數![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)的梯度。 如果![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)是參數(權重)的矩陣,則![](https://img.kancloud.cn/a2/d0/a2d0873f412a5fbdcd98bc53bdf5b3de_55x39.gif)將是每個參數(即![](https://img.kancloud.cn/0c/b7/0cb794e95b1279eecf04055fc9cc3d69_23x14.gif))的梯度矩陣。 **問題**: **為什么在最小化損失函數時減去梯度而不加梯度?** 答案: 例如,我們的損失函數為![](https://img.kancloud.cn/ce/a3/cea37643fde08f415b5a43c7b9ce8728_162x20.gif),可能看起來像: ![gradient descent](https://img.kancloud.cn/b9/93/b99304940aa2ec4995eb4bb5430fcd4b_500x301.jpg) 當![](https://img.kancloud.cn/2e/03/2e033c7d54f4ef10659102d0c1abc1cc_62x13.gif)時,梯度為![](https://img.kancloud.cn/b0/7e/b07ee3558b11b1c6f8625ebed57281d9_224x39.gif)。 顯然,如果我們要找到![](https://img.kancloud.cn/e8/2e/e82e8a80def6ddaaf076709267415116_43x18.gif)的最小值,則梯度的相反方向(例如![](https://img.kancloud.cn/0c/ac/0cac626b4b5b0cf18b98557f72bc5dc4_70x39.gif))是找到局部最低點(即![](https://img.kancloud.cn/4d/fe/4dfe8d6de3c3e40a2039e84cc4163171_110x18.gif))的正確方向。 但是有時,梯度下降法可能會遇到局部最優問題。 #### 計算圖 該計算圖示例是從[DeepLearningAI](https://www.deeplearning.ai/) 的第一門課程中學到的。 假設我們有 3 個可學習的參數![](https://img.kancloud.cn/f8/f8/f8f866ab3678a853e3a66b2004f1b3e1_9x8.gif),![](https://img.kancloud.cn/a0/76/a07675eb420c5a094218ccaf1bb3763f_8x13.gif)和![](https://img.kancloud.cn/b5/46/b546a89f36ed0a48be4457149ac399aa_8x8.gif)。 成本函數為![](https://img.kancloud.cn/a3/8f/a38ff297ecd0fb1162de9e6ab8cc27b2_104x18.gif)。 接下來,我們需要計算參數的梯度:![](https://img.kancloud.cn/31/1a/311a98be1f7182bc8c754ed19b96ed3a_21x38.gif),![](https://img.kancloud.cn/0a/ea/0aeaf2dde3511f54a514ceb11aa85db2_21x38.gif)和![](https://img.kancloud.cn/bb/69/bb69b0f9b7dda69ccc2d221f8eb29540_21x38.gif)。 我們還定義:![](https://img.kancloud.cn/b9/f3/b9f3f805d2963e983128ba4ee2128529_50x13.gif),![](https://img.kancloud.cn/b5/87/b5873656ee67ec58efb75eea9b8b03de_75x13.gif)和![](https://img.kancloud.cn/99/0f/990f98a5b2daf0f7e6c1d39ece0fc19d_53x12.gif)。 該計算可以轉換成下面的計算圖: ![forward computation](https://img.kancloud.cn/6e/c6/6ec60d6474fb9080fd8d6c8c022e0040_291x111.jpg) #### 反向傳播 從上圖可以明顯看出,參數的梯度為:![](https://img.kancloud.cn/17/9f/179f4017a5bca8c0b5792e034c5b4757_92x38.gif),![](https://img.kancloud.cn/16/df/16df333e98ea0756684ccb70d69bea14_116x38.gif)和![](https://img.kancloud.cn/32/86/3286639a7528a5c44017672f6e78f682_116x38.gif)。 計算每個節點的梯度很容易,如下所示。 (提示:實際上,如果您正在實現自己的算法,則可以在正向過程中計算梯度以節省計算資源和訓練時間。因此,在進行反向傳播時,無需再次計算每個節點的梯度 。) ![gradient of each node](https://img.kancloud.cn/cc/43/cc4399530e5767b4e6ce8b19a2ed20a7_291x111.jpg) 現在,我們可以通過簡單地組合節點梯度來計算每個參數的梯度: ![backpropagation](https://img.kancloud.cn/ac/02/ac028fb116b1d77b3dda985de9f6e021_291x151.jpg) ![](https://img.kancloud.cn/3d/90/3d90dd77458f877198c5e5b9b31e7786_191x38.gif) ![](https://img.kancloud.cn/7e/17/7e170e8604bd4cc37af36a2c7b2f3101_246x38.gif) ![](https://img.kancloud.cn/f8/a2/f8a2240278ce71e7a3d6229cd80e0ff7_246x38.gif) #### L2 正則化的梯度(權重衰減) 通過添加![](https://img.kancloud.cn/20/d4/20d4be39758dcb8bb286ba8c3865f47b_36x37.gif)可以稍微改變梯度。 ``` Repeat{ W := W - (lambda/m) * W - learning_rate * dJ(W)/dW} ``` #### 梯度消失/爆炸 如果我們有一個非常深的神經網絡并且未正確初始化權重,則可能會遇到梯度消失或爆炸的問題。 (有關參數初始化的更多詳細信息:[參數初始化](https://createmomo.github.io/2018/01/23/Super-Machine-Learning-Revision-Notes/#parameters_initialization)) 為了解釋什么是消失或爆炸梯度問題,將以一個簡單的深度神經網絡架構為例。 (同樣,很棒的例子來自在線課程[DeepLearningAI](https://www.deeplearning.ai/) ) 神經網絡具有![](https://img.kancloud.cn/97/6a/976a9873db9a0ff36b3355ca2ae10e92_12x12.gif)層。 為簡單起見,每層的參數![](https://img.kancloud.cn/5f/41/5f41d89d5643139113a95ee804c17686_18x17.gif)為 0,所有激活函數均為![](https://img.kancloud.cn/7f/10/7f1034141e065238f1b481bafa285d4b_65x18.gif)。 此外,每個參數![](https://img.kancloud.cn/1c/7f/1c7f735cc72238c5c8af65c857d9986c_30x17.gif)具有相同的值。 根據上面的簡單模型,最終輸出將是: ![](https://img.kancloud.cn/20/f3/20f3bdd99dd0b30636c0de4c39a03ba8_278x21.gif) 因為權重值![](https://img.kancloud.cn/31/4e/314eac7aa3eb10ca8302a9f93b9ac4c5_54x17.gif),我們將在某些易爆元素中獲得![](https://img.kancloud.cn/d2/ec/d2ec0f708328f821c436804ea2ceeb58_31x17.gif)。 同樣,如果權重值小于 1.0(例如 0.5),則某處會有一些消失的梯度(例如![](https://img.kancloud.cn/b2/64/b2647c47871dab1221581616b1de87e7_32x16.gif))。 **這些消失/爆炸的梯度會使訓練變得非常困難。 因此,仔細初始化深度神經網絡的權重很重要。** #### 小批量梯度下降 如果我們擁有龐大的訓練數據集,那么在單個周期訓練模型將花費很長時間。 對于我們而言,跟蹤訓練過程將非常困難。 在小批量梯度下降中,基于當前批量中的訓練示例計算成本和梯度。 ![](https://img.kancloud.cn/89/38/8938f7479ea72465602bb25b05952684_16x12.gif)代表整個訓練集,分為以下幾批。 ![](https://img.kancloud.cn/e7/7e/e77e1905584d83cf5a3dc7079bef474f_16x8.gif)是訓練示例的數量。 ![mini-batches of training data X](https://img.kancloud.cn/c8/ff/c8ffbfb3b1e8a76c71423d38c346b0fe_401x21.jpg) 小批量的過程如下: ``` For t= (1, ... , #Batches): Do forward propagation on the t-th batch examples; Compute the cost on the t-th batch examples; Do backward propagation on the t-th batch examples to compute gradients and update parameters. ``` 在訓練過程中,當我們不應用小批量梯度下降時,與使用小批量訓練模型相比,成本趨勢更加平滑。 ![cost trend of batch and mini-batch gradient Descent](https://img.kancloud.cn/29/9d/299dae51361039143073bceb15fc3a8d_700x258.jpg) #### 隨機梯度下降 當批量大小為 1 時,稱為隨機梯度下降。 #### 選擇小批量 批量大小: 1)如果大小為![](https://img.kancloud.cn/93/ea/93ea547ef8be732f115579f43bb206f5_19x12.gif),即整個訓練集中的示例數,則梯度下降就恰好是“批量梯度下降”。 2)如果大小為 1,則稱為隨機梯度下降。 實際上,大小是在 1 到 M 之間選擇的。當![](https://img.kancloud.cn/9b/dd/9bdd2935423d875a041fb5e69174d3de_95x16.gif)時,該數據集應該是較小的數據集,使用“批量梯度下降”是可以接受的。 當![](https://img.kancloud.cn/ec/28/ec28d84bb86fd486dad168379186d551_79x16.gif)時,可能小批量梯度下降是訓練模型的更好方法。 通常,小批量大小可以是 64、128、256 等。 ![training process with various batch sizes](https://img.kancloud.cn/e5/2f/e52f517441f8af21c05d6189328122c7_320x198.jpg) #### 具有動量的梯度下降(總是比 SGD 更快) 在每個小批量迭代![](https://img.kancloud.cn/64/9c/649cbb0dc497a73d3cb2a543eaaf7933_6x12.gif)上: 1)在當前小批量上計算![](https://img.kancloud.cn/25/51/2551d66f56b0a62f0d80f84f797615ce_28x13.gif)和![](https://img.kancloud.cn/6a/21/6a21c20c2d7353f43b208c7d45f0783f_17x13.gif) 2)![](https://img.kancloud.cn/73/d2/73d217f04c80ae3b28eddf6dd690c017_205x18.gif) 3)![](https://img.kancloud.cn/a3/02/a302c95b8637269ada311fdff4733d6c_177x18.gif) 4)![](https://img.kancloud.cn/9f/6c/9f6c589e3bd305f88f9d98e6a69f987c_133x15.gif) 5)![](https://img.kancloud.cn/d4/13/d41342280f6b1f70fcc9007869626985_101x16.gif) 動量的超參數是![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif)(學習率)和![](https://img.kancloud.cn/76/d0/76d0eb69ba026a58bbe3edd275fee712_11x16.jpg)。 動量方面,![](https://img.kancloud.cn/ef/33/ef33907396fc4fa47c237084ee189d02_31x15.gif)是先前梯度的歷史信息。 如果設置![](https://img.kancloud.cn/69/ff/69ffb50111d8ea2ed120f1966648b7fb_58x16.gif),則意味著我們要考慮最近 10 次迭代的梯度來更新參數。 原始的![](https://img.kancloud.cn/76/d0/76d0eb69ba026a58bbe3edd275fee712_11x16.jpg)來自[指數加權平均值](https://www.youtube.com/watch?v=NxTFlzBjS-4)的參數。例如 ![](https://img.kancloud.cn/69/ff/69ffb50111d8ea2ed120f1966648b7fb_58x16.gif)表示我們要取最后 10 個值作為平均值。 ![](https://img.kancloud.cn/b5/5b/b55b43be59aad0bcfaf7058f422811ed_76x16.gif)表示考慮最后 1000 個值等。 #### RMSprop 的梯度下降 在每個小批量迭代![](https://img.kancloud.cn/64/9c/649cbb0dc497a73d3cb2a543eaaf7933_6x12.gif)上: 1)在當前小批量上計算![](https://img.kancloud.cn/25/51/2551d66f56b0a62f0d80f84f797615ce_28x13.gif)和![](https://img.kancloud.cn/6a/21/6a21c20c2d7353f43b208c7d45f0783f_17x13.gif) 2)![](https://img.kancloud.cn/51/dd/51ddcfbfb1d7339a56b0a2c2e484e7fc_227x20.gif) 3)![](https://img.kancloud.cn/51/0e/510ec2f5795b8e3c7e50da1b2e538d17_199x20.gif) 4)![](https://img.kancloud.cn/ed/05/ed050c9921d664f109deb20290f4ebf7_181x43.gif) 5)![](https://img.kancloud.cn/e5/03/e503eaf383d82675b1d677bc39ca0814_149x43.gif) #### Adam(將動量和 RMSprop 放在一起) ![](https://img.kancloud.cn/cb/e0/cbe0eabb36655f475acfbc298fcb9831_65x15.gif),![](https://img.kancloud.cn/dd/d3/ddd3bc0bde3c3421a168689966fa31a1_66x15.gif),![](https://img.kancloud.cn/ca/b0/cab0c87d47b6ce9daa259535cc1f7838_57x15.gif),![](https://img.kancloud.cn/9c/c7/9cc7652cba3fa9b4db6cc9f9ea02cb79_57x15.gif) 在每個小批量迭代中![](https://img.kancloud.cn/64/9c/649cbb0dc497a73d3cb2a543eaaf7933_6x12.gif): 1)在當前小批量上計算![](https://img.kancloud.cn/25/51/2551d66f56b0a62f0d80f84f797615ce_28x13.gif)和![](https://img.kancloud.cn/6a/21/6a21c20c2d7353f43b208c7d45f0783f_17x13.gif)。 2)![](https://img.kancloud.cn/6e/80/6e80df069d0ca4ca467ac49244f4a4b4_218x18.gif) 3)![](https://img.kancloud.cn/80/05/8005654d5ada61ffad5339041739e3c7_190x18.gif) 4)![](https://img.kancloud.cn/03/58/0358f35b0cfe5d6fa93309696d8cd6fe_131x42.gif) 5)![](https://img.kancloud.cn/81/05/810594a2b5391c1c83a62bd756657ba1_131x42.gif) 6)![](https://img.kancloud.cn/74/55/74558e45c7d2cbf982ed3a89744abb22_128x41.gif) 7)![](https://img.kancloud.cn/97/7c/977c857f236518a8d6d0acc8a92e8db5_128x41.gif) ![](https://img.kancloud.cn/97/7c/977c857f236518a8d6d0acc8a92e8db5_128x41.gif) ![](https://img.kancloud.cn/97/7c/977c857f236518a8d6d0acc8a92e8db5_128x41.gif) ![](https://img.kancloud.cn/97/7c/977c857f236518a8d6d0acc8a92e8db5_128x41.gif) ![](https://img.kancloud.cn/97/7c/977c857f236518a8d6d0acc8a92e8db5_128x41.gif) ![](https://img.kancloud.cn/97/7c/977c857f236518a8d6d0acc8a92e8db5_128x41.gif) ![](https://img.kancloud.cn/97/7c/977c857f236518a8d6d0acc8a92e8db5_128x41.gif) ![](https://img.kancloud.cn/b1/62/b1621d5d6f8bbd0d96046efbd76733aa_205x49.gif) ![](https://img.kancloud.cn/8a/96/8a965d8a31ba4f61b04dfde39cfad61e_181x49.gif) “校正”是指數加權平均值中的[“偏差校正”](https://www.youtube.com/watch?v=lWzo8CajF5s) 的概念。 該校正可以使平均值的計算更加準確。 ![](https://img.kancloud.cn/64/9c/649cbb0dc497a73d3cb2a543eaaf7933_6x12.gif)是![](https://img.kancloud.cn/76/d0/76d0eb69ba026a58bbe3edd275fee712_11x16.jpg)的權重。 通常,默認的超參數值為:![](https://img.kancloud.cn/75/8b/758bab531b554cca9b349f7de4db339d_65x16.gif),![](https://img.kancloud.cn/42/ce/42cee4aa23da24e5d47d1a9f62f859f6_74x16.gif)和![](https://img.kancloud.cn/02/cd/02cd0dcc232b529c68abb7130e15b7c6_65x17.gif)。 學習率![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif)需要調整。 或者,應用學習率衰減方法也可以很好地工作。 #### 學習速率衰減方法 如果在訓練期間固定學習率,則損失/成本可能會波動,如下圖所示。 尋找一種使學習速率具有適應性的方法可能是一個好主意。 ![training with fix learning rate](https://img.kancloud.cn/16/97/1697d2ea9a9ee984142fffc9ae344a44_320x198.jpg) ##### 基于周期數的衰減 ![train phrase](https://img.kancloud.cn/47/1f/471fc1eec794f2e8b2949945e85b4ecb_416x83.jpg) 根據周期數降低學習率是一種直接的方法。 以下是速率衰減公式。 例如,初始![](https://img.kancloud.cn/23/6a/236ad329ed5c0f365245226be260180d_59x12.gif)和衰減率是 1.0。 每個周期的學習率是: | 周期 | ![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif) | | --- | --- | | 1 | 0.1 | | 2 | 0.67 | | 3 | 0.5 | | 4 | 0.4 | | 5 | … | 當然,還有其他一些學習率衰減方法。 | 其他方法 | 公式 | | --- | --- | | 指數衰減 | ![](https://img.kancloud.cn/53/70/53706b4cee26f4eb5c9271569aee76fd_170x19.gif) | | 周期相關 | ![](https://img.kancloud.cn/7e/f2/7ef2a401267137056d5a2c4d506978df_173x42.gif) | | 小批量相關 | ![](https://img.kancloud.cn/87/b7/87b73cd9a9ae07d76234af2f8fbd3c78_66x38.gif) | | 離散階梯 | ![](https://img.kancloud.cn/71/8c/718cdc0641373a1cb1eb12ad95d3de14_350x258.jpg) | | 手動衰減 | 逐日手動或逐小時降低學習率等。 | #### 批量規范化 ##### 訓練時的批量規范化 使用批量規范化可以加快訓練速度。 步驟如下。 ![Batch Normalization](https://img.kancloud.cn/54/af/54af73bf6678f3b60b6cd191765f9280_441x41.jpg) 每層![](https://img.kancloud.cn/6e/f3/6ef3a507737f856ff56d8cf70a0bbc8c_5x13.gif)中的批量規范化的詳細信息是: ![](https://img.kancloud.cn/29/67/2967cfe0a8e93e357ab226a0f7f9ae3c_113x37.gif) ![](https://img.kancloud.cn/78/83/788387c233b7c7dd88546737dfedaed0_164x37.gif) ![](https://img.kancloud.cn/04/b8/04b85172060418f9fd1e7c69ad401448_211x48.gif) ![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif)和![](https://img.kancloud.cn/76/d0/76d0eb69ba026a58bbe3edd275fee712_11x16.jpg)是此處可學習的參數。 ##### 測試時的批量規范化 在測試時,我們沒有實例來計算![](https://img.kancloud.cn/da/ae/daae94eb5dc924acf8a8609e74df9f3a_11x12.jpg) 和![](https://img.kancloud.cn/8c/bf/8cbf14539bd10066936008158616c75d_9x12.gif),因為每次可能只有一個測試實例。 在這種情況下,最好使用跨小批量的指數加權平均值來估計![](https://img.kancloud.cn/da/ae/daae94eb5dc924acf8a8609e74df9f3a_11x12.jpg)和![](https://img.kancloud.cn/6c/0c/6c0cde5eb933a8d817181e28de7aad1d_39x13.gif)的合理值。 ### 參數 #### 可學習的參數和超參數 | 可學習的參數 | | --- | | ![](https://img.kancloud.cn/5f/2d/5f2d22fdb1f611019267a8c55b44784c_33x17.gif) | | 超參數 | | --- | | 學習率![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif) | | 迭代次數 | | 隱藏層數![](https://img.kancloud.cn/97/6a/976a9873db9a0ff36b3355ca2ae10e92_12x12.gif) | | 每一層的隱藏單元的數量 | | 選擇激活函數 | | 動量參數 | | 小批量 | | 正則化參數 | #### 參數初始化 (**注意**:實際上,機器學習框架(例如 tensorflow,chainer 等)已經提供了強大的參數初始化功能。) ##### 小初始值 例如,當我們初始化參數![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)時,我們設置一個小的值(即 0.01)以確保初始參數很小: ``` W = numpy.random.randn(shape) * 0.01 ``` 這樣做的原因是,如果您使用的是 Sigmoid 且初始參數較大,則梯度將非常小。 ##### 隱藏單元更多,權重更小 同樣,我們將使用偽代碼來顯示各種初始化方法的工作方式。 我們的想法是,如果隱藏單元的數量較大,我們更愿意為參數分配較小的值,以防止訓練階段的消失或爆炸。下圖可能會為您提供一些了解該想法的見解。 ![z](https://img.kancloud.cn/bb/2e/bb2e6feff0433bd74af2df0630357a5a_232x231.jpg) 基于上述思想,我們可以使用與隱藏單元數有關的項對權重進行設置。 ``` W = numpy.random.randn(shape) * numpy.sqrt(1/n[l-1]) ``` 相乘項的公式為![](https://img.kancloud.cn/68/05/6805624529f5a93466c4eaa2b1ed55a8_59x45.gif)。 ![](https://img.kancloud.cn/a0/7a/a07a0ddcac96bb91e8f91fca786a5f36_37x17.gif)是上一層中隱藏單元的數量。 如果您正在使用 Relu 激活函數,則使用項![](https://img.kancloud.cn/78/ba/78ba0a628e3e92a528f3186f5429bc13_59x45.gif)可能會更好。 ##### Xavier 初始化 如果您的激活函數是![](https://img.kancloud.cn/92/39/92391a95c775524c60b9d407523302cb_36x14.gif),那么 Xavier 初始化(![](https://img.kancloud.cn/68/05/6805624529f5a93466c4eaa2b1ed55a8_59x45.gif)或![](https://img.kancloud.cn/ee/6c/ee6c259abcc59d4849f619c96acac09a_104x45.gif))將是一個不錯的選擇。 #### 超參數調整 調整超參數時,有必要嘗試各種可能的值。 如果計算資源足夠,最簡單的方法是訓練具有各種參數值的并行模型。 但是,最有可能的資源非常稀少。 在這種情況下,我們只能照顧一個模型,并在不同周期嘗試不同的值。 ![Babysitting one model vs. Traning models parallel](https://img.kancloud.cn/ce/a9/cea96f39f4ab08bb7d5dec544dfad3fe_700x258.jpg) 除了上述方面,如何明智地選擇超參數值也很重要。 如您所知,神經網絡架構中有各種超參數:學習率![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif),動量和 RMSprop 參數(![](https://img.kancloud.cn/7b/d6/7bd68ec0dc85edf839c1831b22dd3331_16x16.gif),![](https://img.kancloud.cn/f2/31/f231932a1cb99170c8a137f91abf93e1_16x16.gif)和![](https://img.kancloud.cn/f1/f4/f1f442a329c8d3df85dce68831d660fe_7x8.jpg)),層數,每層的單元數,學習速率衰減參數和小批量大小。 Ng 推薦以下超參數優先級: | 優先級 | 超參數 | | --- | --- | | 1 | 學習率![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif) | | 2 | ![](https://img.kancloud.cn/7b/d6/7bd68ec0dc85edf839c1831b22dd3331_16x16.gif),![](https://img.kancloud.cn/f2/31/f231932a1cb99170c8a137f91abf93e1_16x16.gif)和![](https://img.kancloud.cn/f1/f4/f1f442a329c8d3df85dce68831d660fe_7x8.jpg)(動量和 RMSprop 的參數) | | 2 | 隱藏單元數 | | 2 | 批量大小 | | 3 | 層數 | | 3 | 學習率衰減數 | (通常,動量和 RMSprop 的默認值為:![](https://img.kancloud.cn/75/8b/758bab531b554cca9b349f7de4db339d_65x16.gif),![](https://img.kancloud.cn/42/ce/42cee4aa23da24e5d47d1a9f62f859f6_74x16.gif)和![](https://img.kancloud.cn/02/cd/02cd0dcc232b529c68abb7130e15b7c6_65x17.gif)) ##### 隱藏單元和層的均勻樣本 例如,如果層數的范圍是 2-6,我們可以統一嘗試使用 2、3、4、5、6 來訓練模型。 同樣,對于 50-100 的隱藏單元,在這種比例下選擇值是一個很好的策略。 例: ![hidden units and layers](https://img.kancloud.cn/57/a8/57a80290bcb60639cedd0227fb8be444_304x138.jpg) ##### 對數刻度上的樣本 您可能已經意識到,對于所有參數而言,均勻采樣通常不是一個好主意。 例如,讓我們說學習率![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif)的合適范圍是![](https://img.kancloud.cn/8d/b6/8db6ec5a0c35ff7c48740eeb7f16a449_175x21.gif)。 顯然,均勻選擇值是不明智的。 更好的方法是在對數刻度![](https://img.kancloud.cn/bf/c7/bfc7aa6dcda08f3044c91ea119a07c39_148x18.gif)(![](https://img.kancloud.cn/01/57/0157f35dd742a8a1631a2e3bd899bdab_49x13.gif),![](https://img.kancloud.cn/8c/09/8c091ab29e9bf13e8462054253fec70f_40x13.gif),![](https://img.kancloud.cn/14/6d/146ddc65fe29192084fac62882cb5f3b_31x13.gif),![](https://img.kancloud.cn/89/b9/89b9d82a0c7a41094e4f9d94887485d7_22x13.gif)和![](https://img.kancloud.cn/55/95/559537f1e11c68d8ba3d9f6d540de6b0_7x13.gif))上進行采樣。 至于參數![](https://img.kancloud.cn/7b/d6/7bd68ec0dc85edf839c1831b22dd3331_16x16.gif)和![](https://img.kancloud.cn/f2/31/f231932a1cb99170c8a137f91abf93e1_16x16.gif),我們可以使用類似的策略。 例如 ![](https://img.kancloud.cn/93/2f/932f340e76d3ba802f31869d12816162_90x17.gif) 因此,![](https://img.kancloud.cn/72/56/7256a13eab2200a06c8f9a239557b626_91x17.gif) ![](https://img.kancloud.cn/36/b0/36b05479130560c1005f29af21eaa9bf_93x18.gif) 下表可能有助于您更好地了解該策略。 | | | | | | --- | --- | --- | --- | | ![](https://img.kancloud.cn/76/d0/76d0eb69ba026a58bbe3edd275fee712_11x16.jpg) | 0.9 | 0.99 | 0.999 | | ![](https://img.kancloud.cn/71/af/71af2bf2661283dfb9709de98e41845d_41x16.gif) | 0.1 | 0.01 | 0.001 | | ![](https://img.kancloud.cn/5e/b9/5eb9d72c1ec656dd6de588089727a8e6_8x8.gif) | -1 | -2 | -3 | 例: ![learning rate alpha and beta](https://img.kancloud.cn/95/99/959951ce7c915ccd28307a5c96ecb04c_227x265.jpg) ### 正則化 正則化是防止機器學習出現過擬合問題的一種方法。 附加的正則項將添加到損失函數中。 #### L2 正則化(權重衰減) ![](https://img.kancloud.cn/37/a5/37a5897c7ab3e555bf262181f7230fae_325x51.gif) 在新的損失函數中,![](https://img.kancloud.cn/bf/29/bf2950bfd1e51696bc1b9730247a910a_72x37.gif)是正則項,![](https://img.kancloud.cn/99/d3/99d394e7d0b74248114405067e0ffd51_10x12.jpg)是正則參數(超參數)。 L2 正則化也稱為權重衰減。 對于邏輯回歸模型,![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)是一個向量(即![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)的維數與特征向量相同),正則項應為: ![](https://img.kancloud.cn/e2/c4/e2c4fdb1fd2d9865c98f6f21635e7e33_158x56.gif)。 對于具有多層(例如![](https://img.kancloud.cn/97/6a/976a9873db9a0ff36b3355ca2ae10e92_12x12.gif)層)的神經網絡模型,層之間存在多個參數矩陣。 每個矩陣![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)的形狀是![](https://img.kancloud.cn/66/03/66039409272783e9c1524e770c0efea0_82x21.gif)。 在等式中,![](https://img.kancloud.cn/6e/f3/6ef3a507737f856ff56d8cf70a0bbc8c_5x13.gif)是![](https://img.kancloud.cn/08/5d/085de9915279851f8aec8fb4f186521a_19x16.gif)層,![](https://img.kancloud.cn/93/e7/93e74c2d8268158735b4836740885a85_21x17.gif)是![](https://img.kancloud.cn/6e/f3/6ef3a507737f856ff56d8cf70a0bbc8c_5x13.gif)層中的隱藏單元數。 因此,L2 正則化項將是: ![](https://img.kancloud.cn/e8/5b/e85b7d122763cd9775ba5c802348af9b_109x55.gif) ![](https://img.kancloud.cn/52/06/52064912efe8ee5e095188b0763316c5_184x58.gif)(也稱為 Frobenius 范數)。 #### L1 正則化 ![](https://img.kancloud.cn/b9/8d/b98dd77de4128177d5b1f7de1547be0f_322x51.gif) ![](https://img.kancloud.cn/ff/2e/ff2e30ada76c11ce23d95e5238b7f315_159x58.gif)。 如果我們使用 L1 正則化,則參數![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)將是稀疏的。 #### Dropout(反向 Dropout) 為了直觀地了解 Dropout,Dropout 正則化的目的是使受監督的模型更加健壯。 在訓練短語中,激活函數的某些輸出值將被忽略。 因此,在進行預測時,模型將不依賴任何一項特征。 在 Dropout 正則化中,超參數“保持概率”描述了激活隱藏單元的幾率。 因此,如果隱藏層具有![](https://img.kancloud.cn/f2/48/f248e891effc6650d9d31fbefc54cbe4_11x8.gif)個單元,并且概率為![](https://img.kancloud.cn/4b/28/4b28c13d5f5d658adb7478fbc9efc923_10x12.gif),則將激活![](https://img.kancloud.cn/c1/04/c104c584be7fcb1e36be937b2f1be6e5_43x13.gif)左右的單元,并關閉![](https://img.kancloud.cn/d7/ed/d7edee964729e99a2426dd539099e018_87x18.gif)左右的單元。 **示例**: ![dropout example](https://img.kancloud.cn/c2/98/c298a5fd811b1995336b3af1b94a0c84_296x444.jpg) 如上所示,丟棄了第二層的 2 個單元。 因此,第三層的線性組合值(即![](https://img.kancloud.cn/a6/10/a610d631bf9b0937da4fbf92984bae03_134x19.gif))將減小。 為了不降低![](https://img.kancloud.cn/f5/cc/f5cc9e47883d3f86d5795d82e36323c4_9x8.gif)的期望值,應通過除以保持概率來調整![](https://img.kancloud.cn/74/af/74aff7e9c51ffb6205041c50eae5c882_22x17.gif)的值。 也就是說:![](https://img.kancloud.cn/26/1d/261d5f294a2f93b6e3353ee84cac4515_79x46.gif) **注意**:在測試時進行預測時,不需要進行 Dropout 正則化。 #### 提前停止 使用提前停止以防止模型過擬合。 ![early stopping](https://img.kancloud.cn/10/3b/103b544a0a208701642197da9a9c6edf_350x258.jpg) ### 模型 #### Logistic 回歸 給定實例的特征向量![](https://img.kancloud.cn/77/90/7790dd0efb4a03a4c876741804d9b559_10x8.gif),邏輯回歸模型的輸出為![](https://img.kancloud.cn/bd/43/bd43c51129caa874c6fec4a979239f2a_81x19.gif)。 因此,概率為![](https://img.kancloud.cn/66/86/66866423c1aa7090bee543fa5910f4c1_216x19.gif)。 在邏輯回歸中,可學習的參數為![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)和![](https://img.kancloud.cn/a0/76/a07675eb420c5a094218ccaf1bb3763f_8x13.gif)。 x 軸是![](https://img.kancloud.cn/9f/24/9f24f4e578535d2b8f75be1517be7812_70x18.gif)的值,y 軸是![](https://img.kancloud.cn/bd/43/bd43c51129caa874c6fec4a979239f2a_81x19.gif)。 (圖片從[維基百科](https://en.wikipedia.org/wiki/Sigmoid_function)下載) ![logistic curve](https://img.kancloud.cn/28/04/28044a931c294e8de09fbd535d2e7d91_320x213.jpg) **一個訓練實例![](https://img.kancloud.cn/51/0e/510ee30dbbbfcdb9ec8a2ede11fa9978_50x20.gif)的損失函數**: ![](https://img.kancloud.cn/c4/71/c471340d25c5e58136d3d16f3444026e_14x20.gif)是預測,![](https://img.kancloud.cn/9a/b3/9ab316abe546a4e3b62f5701c7262a86_14x20.gif)是真實答案。 整個訓練數據集的 **成本函數**(![](https://img.kancloud.cn/e7/7e/e77e1905584d83cf5a3dc7079bef474f_16x8.gif)是訓練數據集中的示例數): **最小化成本函數實際上是最大化數據的似然。** ![](https://img.kancloud.cn/4e/41/4e41da7bbd9b0165c9bc53c969f68e3e_567x51.gif) #### 多類別分類(Softmax 回歸) ![Softmax Regression](https://img.kancloud.cn/90/48/90486e9af4691ac6cfc9f13bd9830163_321x196.jpg) softmax 回歸將 logistic 回歸(二元分類)概括為多個類(多類分類)。 如上圖所示,它是 3 類分類神經網絡。 在最后一層,使用 softmax 激活函數。 輸出是每個類別的概率。 softmax 激活如下。 1)![](https://img.kancloud.cn/da/5c/da5c9d0f4c335474be56dafa06e85524_152x25.gif) 2)![](https://img.kancloud.cn/b3/82/b3823bea7a8fb339b741eb08f5800944_492x52.gif) ![](https://img.kancloud.cn/38/1a/381ac4d96320f1b22842a5509324ce4c_375x19.gif) ![](https://img.kancloud.cn/2c/c1/2cc16753e2aca8b1efc93132f58d0906_91x18.gif) ##### 損失函數 ![](https://img.kancloud.cn/29/ea/29eab13ba3ad24a8ff7b1c39c3fd1cd6_250x51.gif) ![](https://img.kancloud.cn/14/97/149748630e7b648a7ab4a72b3024d9f1_183x56.gif) ![](https://img.kancloud.cn/e7/7e/e77e1905584d83cf5a3dc7079bef474f_16x8.gif)是訓練實例的數量。 ![](https://img.kancloud.cn/f3/99/f3990417ea74c9d830634565aa466608_9x16.gif)是第 j 類。 #### 遷移學習 如果我們有大量的訓練數據或者我們的神經網絡很大,那么訓練這樣的模型會很費時(例如幾天或幾周)。 幸運的是,有一些模型已發布并公開可用。 通常,這些模型是在大量數據上訓練的。 遷移學習的思想是,我們可以下載這些經過預先訓練的模型,并根據自己的問題調整模型,如下所示。 ![transfer learning](https://img.kancloud.cn/d7/c0/d7c0c7a240cc19a330870005dd36fb84_593x308.jpg) 如果我們有很多數據,我們可以重新訓練整個神經網絡。 另一方面,如果我們的訓練小,則可以重新訓練最后幾層或最后幾層(例如,最后兩層)。 **在哪種情況下我們可以使用遷移學習?** 假設: 預先訓練的模型用于任務 A,而我們自己的模型用于任務 B。 * 這兩個任務應具有相同的輸入格式 * 對于任務 A,我們有很多訓練數據。 但是對于任務 B,數據的大小要小得多 * 從任務 A 中學到的低級特征可能有助于訓練任務 B 的模型。 #### 多任務學習 在分類任務中,通常每個實例只有一個正確的標簽,如下所示。 第 i 個實例僅對應于第二類。 但是,在多任務學習中,一個實例可能具有多個標簽。 在任務中,損失函數為: ![](https://img.kancloud.cn/ac/d6/acd6448e2422d38c9cf8f45d2143230d_281x56.gif) ![](https://img.kancloud.cn/d5/fe/d5fecfaa72d479d1da256b02e70e09f5_332x27.gif) ![](https://img.kancloud.cn/e7/7e/e77e1905584d83cf5a3dc7079bef474f_16x8.gif)是訓練實例的數量。 ![](https://img.kancloud.cn/f3/99/f3990417ea74c9d830634565aa466608_9x16.gif)是第 j 類。 **多任務學習提示**: * 多任務學習模型可以共享較低級別的特征 * 我們可以嘗試一個足夠大的神經網絡以在所有任務上正常工作 * 在訓練集中,每個任務的實例數量相似 #### 卷積神經網絡(CNN) ##### 濾波器/內核 例如,我們有一個![](https://img.kancloud.cn/c6/b1/c6b109e987c66e51e24bf39e6b1c2923_35x12.gif)濾波器(也稱為內核),下圖描述了濾波器/內核如何在 2D 輸入上工作。 輸入![](https://img.kancloud.cn/77/90/7790dd0efb4a03a4c876741804d9b559_10x8.gif)的大小為![](https://img.kancloud.cn/eb/d1/ebd1d7a0c5dbd8aba59c5e222ecce635_35x12.gif),應用濾波器/內核時的輸出大小為![](https://img.kancloud.cn/31/d8/31d8fa0966700d3b0295ea84e3aa64de_35x13.gif)。 濾波器/內核中的參數(例如![](https://img.kancloud.cn/32/b6/32b6d1f35a7c329a9d5cef8abf678b74_52x12.gif))是可學習的。 ![CNN on 2D data](https://img.kancloud.cn/22/e3/22e3ebc9fccfc88acb30d3f60e9af982_373x355.jpg) 而且,我們可以同時具有多個濾波器,如下所示。 ![CNN on 2D data with 2 filters](https://img.kancloud.cn/5d/34/5d3481d5bb9c618e1558f89c2a094b38_377x202.jpg) 同樣,如果輸入是一個 3 維的體積,我們也可以使用 3D 濾波器。 在此濾波器中,有 27 個可學習的參數。 ![CNN on 3D data](https://img.kancloud.cn/62/fc/62fc93e3838ce11a4e1e5b251ddab7dd_407x235.jpg) 通常,濾波器的寬度是奇數(例如![](https://img.kancloud.cn/a4/dd/a4dd918a678ddd573e1e71c6b0a89b8c_33x13.gif),![](https://img.kancloud.cn/c6/b1/c6b109e987c66e51e24bf39e6b1c2923_35x12.gif),![](https://img.kancloud.cn/bd/e3/bde3f1dd72f445e898bcf06acf984007_35x13.gif)…) 濾波器的想法是,如果它在輸入的一部分中有用,那么也許對輸入的另一部分也有用。 而且,卷積層輸出值的每個輸出值僅取決于少量的輸入。 #### 步幅 步幅描述了濾波器的步長。 它將影響輸出大小。 ![stride](https://img.kancloud.cn/58/cf/58cf49481f0aaf619506bb4a8534b3c9_316x410.jpg) 應當注意,一些輸入元素被忽略。 這個問題可以通過填充來解決。 #### 填充(有效和相同卷積) 如上所述,有效卷積是我們不使用填充時的卷積。 相同卷積是我們可以使用填充通過填充零來擴展原始輸入,以便輸出大小與輸入大小相同。 例如,輸入大小為![](https://img.kancloud.cn/eb/d1/ebd1d7a0c5dbd8aba59c5e222ecce635_35x12.gif),濾波器為![](https://img.kancloud.cn/c6/b1/c6b109e987c66e51e24bf39e6b1c2923_35x12.gif)。 如果我們設置`stride = 1`和`padding = 1`,我們可以獲得與輸入相同大小的輸出。 ![padding](https://img.kancloud.cn/a7/1d/a71d27ca201f054b288e515225d681cf_161x201.jpg) 通常,如果濾波器大小為`f * f`,輸入為`n * n`,步幅為`s`,則最終輸出大小為: ![](https://img.kancloud.cn/aa/73/aa730e0fa76e50b2770c0752faf914c7_318x37.gif) #### 卷積層 實際上,我們還在卷積層上應用了激活函數,例如 Relu 激活函數。 ![one convolutional layer with relu activation functions](https://img.kancloud.cn/97/35/973520a4975db2c7d49918990dc8a24b_602x235.jpg) 至于參數的數量,對于一個濾波器,總共有 27 個(濾波器的參數)+1(偏置)= 28 個參數。 #### `1 * 1`卷積 如果不使用 1X1 轉換層,則計算成本存在問題: ![when not use 1*1 CONV](https://img.kancloud.cn/10/ca/10ca3904e3e27f7c547c72ff4e150630_270x73.jpg) 使用 1X1 轉換層,參數數量大大減少: ![when use 1*1 CONV](https://img.kancloud.cn/58/b9/58b92bd8f701c8f6ed41506d046d0ba8_465x120.jpg) #### 池化層(最大和平均池化) 池化層(例如最大池化層或平均池化層)可以被認為是一種特殊的濾波器。 最大池化層返回濾波器當前覆蓋區域的最大值。 同樣,平均池層將返回該區域中所有數字的平均值。 ![max and average pooling layer](https://img.kancloud.cn/a6/df/a6dfdd649c8531097fecf7596ed9067a_225x183.jpg) 在圖片中,![](https://img.kancloud.cn/18/8e/188ee644e8202aad30eac11166858841_10x16.gif)是濾波器的寬度,![](https://img.kancloud.cn/5e/d7/5ed73b8b63ac69b8e9333f3a9ff6fc74_8x8.gif)是步長的值。 **注意:在池化層中,沒有可學習的參數。** #### LeNet-5 ![LeNet-5](https://img.kancloud.cn/a9/5d/a95deb2555f8a2dd606ae38aa342533c_917x250.jpg) (模型中有約 60k 參數) #### AlexNet ![AlexNet](https://img.kancloud.cn/4a/d2/4ad2f4080298fbd9c6a1c508de1d7a2d_695x522.jpg) (模型中有約 60m 的參數;使用 Relu 激活函數;) #### VGG-16 ![VGG-16](https://img.kancloud.cn/4c/5f/4c5fb103f730e06b1dae2a8f115b0c53_591x141.jpg) (模型中有大約 138m 的參數;所有濾波器中![](https://img.kancloud.cn/34/7d/347def45f9340463c3479ff0f6ad6165_44x16.gif),![](https://img.kancloud.cn/ca/92/ca92dd9fe623c40a33c0b2d500ac4ba6_41x13.gif)并使用相同的填充;在最大池化層中![](https://img.kancloud.cn/25/ca/25cac573c6e747196f1cc967a7ffce9a_44x16.gif)和![](https://img.kancloud.cn/d2/d7/d2d74cec7a723fae3bb75677cc5fc9e0_42x12.gif)) #### ResNet(功能更強大) ![ResNet](https://img.kancloud.cn/28/48/28482474690ee0adaf5376f2c6cb24d5_630x181.jpg) ![](https://img.kancloud.cn/51/9e/519e2e4f9ee14b7d95dc7d0923503659_165x21.gif) #### Inception ![Inception Network](https://img.kancloud.cn/3e/4a/3e4a94925f1fa9dd61e7e8df60ea36a4_440x331.jpg) #### 對象檢測 ##### 本地化分類 ![Classification with Localisation](https://img.kancloud.cn/0e/d6/0ed69bce2f63762fd5c250b576e277f1_603x235.jpg) **損失函數**: ![Classification with Localisation Loss Function](https://img.kancloud.cn/34/59/3459f710e47ec41572b3efcb6fa68a96_420x47.jpg) ##### 地標檢測 ![Landmark Detection](https://img.kancloud.cn/e9/cc/e9cca0336f4ae4c39e8a1ee51791b10c_441x207.jpg) ##### 滑動窗口檢測算法 ![Classifier](https://img.kancloud.cn/61/d7/61d764089b29fcce296f4c8dedba5fb4_552x332.jpg) 首先,使用訓練集來訓練分類器。 然后將其逐步應用于目標圖片: ![Classifier](https://img.kancloud.cn/63/1d/631d2019d0e849e0bebeed8b9351cf99_212x112.jpg) 問題是計算成本(按順序計算)。 為了解決這個問題,我們可以使用滑動窗口的卷積實現(即將最后的完全連接層變成卷積層)。 ![Classifier (Convolutional Implementation)](https://img.kancloud.cn/4a/36/4a36e094668ec123154046961b563251_725x338.jpg) 使用卷積實現,我們不需要按順序計算結果。 現在我們可以一次計算結果。 ![Using Convolutional Implementation](https://img.kancloud.cn/e9/ae/e9ae08daf21f9870947971a70f489e72_730x133.jpg) ##### 區域提議(R-CNN,僅在幾個窗口上運行檢測) 實際上,在某些圖片中,只有幾個窗口具有我們感興趣的對象。在區域提議(R-CNN)方法中,我們僅在提出的區域上運行分類器。 **R-CNN** : * 使用一些算法來提出區域 * 一次對這些提出的區域進行分類 * 預測標簽和邊界框 **Fast R-CNN** : * 使用聚類方法提出區域 * 使用滑動窗口的卷積實現對提出的區域進行分類 * 預測標簽和邊界框 另一種更快的 R-CNN 使用卷積網絡來提出區域。 ##### YOLO 算法 ###### 邊界框預測(YOLO 的基礎) 每張圖片均分為多個單元。 ![Label for Training](https://img.kancloud.cn/62/3c/623cd2d189bf82a59d67dde569e8307b_452x340.jpg) 對于每個單元格: * ![](https://img.kancloud.cn/17/c3/17c3adae08626c788762fb208da4d9a0_16x12.gif)指示單元格中是否存在對象 * ![](https://img.kancloud.cn/11/31/1131997e9a07f868f53fcf188146708d_15x16.gif)和![](https://img.kancloud.cn/d3/f3/d3f38bdf3a1a110a28e376659ee00f66_15x19.gif)是中點(0 到 1 之間) * ![](https://img.kancloud.cn/fd/56/fd56aae43872edfdb510f47798fa098d_16x16.gif)和![](https://img.kancloud.cn/4f/7e/4f7e7541c4b15b59bae120afb4c6a9a8_17x16.gif)是相對的高和寬(該值可以大于 1.0)。 * ![](https://img.kancloud.cn/a2/3e/a23ea58e20f955769522ac67763587bc_14x12.gif),![](https://img.kancloud.cn/ac/2f/ac2f40ee215acefa39f4292a73f0f2dd_14x11.gif)和![](https://img.kancloud.cn/df/ef/dfefa90b74409c765f986cef3c6864da_14x11.gif)表示對象所屬的類別。 ![Details of the Label](https://img.kancloud.cn/92/1a/921a02e51fa267007521c0f8cc048ffa_685x316.jpg) ###### IOU ![Details of the Label](https://img.kancloud.cn/e5/4f/e54fbc7c68028df0f5f85b7180f5d22f_303x198.jpg) 按照慣例,通常將 0.5 用作閾值,以判斷預測的邊界框是否正確。 例如,如果 IOU 大于 0.5,則可以說該預測是正確的答案。 ![](https://img.kancloud.cn/93/55/935570bb96b9632ae3ef26a1d6368ef7_38x12.gif)也可以用作一種方法來衡量兩個邊界框彼此之間的相似程度。 ###### 非最大抑制 ![Details of the Label](https://img.kancloud.cn/c6/0d/c60d8f8d65ef0ee386a8ea2aecc3e5f7_530x208.jpg) 該算法可以找到對同一物體的多次檢測。 例如,在上圖中,它為貓找到 2 個邊界框,為狗找到 3 個邊界框。 非最大抑制算法可確保每個對象僅被檢測一次。 步驟: 1)丟棄所有帶有![](https://img.kancloud.cn/b1/01/b1017f6124f123350a4197e641473114_64x16.gif)的框 2)對于任何剩下的框: a)選擇具有最大![](https://img.kancloud.cn/17/c3/17c3adae08626c788762fb208da4d9a0_16x12.gif)的框作為預測輸出 b)在最后一步中,將所有帶有![](https://img.kancloud.cn/5a/13/5a13b51d18a33a7410b06adadfe555c9_85x16.gif)的剩余框與選中的框一起丟棄,然后從 a 開始重復。 ##### 錨定框 先前的方法只能在一個單元格中檢測到一個對象。 但是在某些情況下,一個單元中有多個對象。 為了解決這個問題,我們可以定義不同形狀的邊界框。 ![Anchor Box](https://img.kancloud.cn/35/a5/35a5845d95df7f6560b3a1b97a1cc8e4_665x628.jpg) 因此,訓練圖像中的每個對象都分配給: * 包含對象中點的網格單元 * 具有最高![](https://img.kancloud.cn/93/55/935570bb96b9632ae3ef26a1d6368ef7_38x12.gif)的網格單元的錨定框 ![Anchor Box](https://img.kancloud.cn/cf/49/cf49c9ddee1ed4882630e9a67f7ec037_339x613.jpg) **做出預測**: * 對于每個網格單元,我們可以獲得 2 個(錨定框的數量)預測邊界框。 * 擺脫低概率預測 * 對于每個類別(![](https://img.kancloud.cn/a2/3e/a23ea58e20f955769522ac67763587bc_14x12.gif),![](https://img.kancloud.cn/ac/2f/ac2f40ee215acefa39f4292a73f0f2dd_14x11.gif)和![](https://img.kancloud.cn/df/ef/dfefa90b74409c765f986cef3c6864da_14x11.gif)),都使用非最大抑制來生成最終預測。 #### 人臉驗證 ##### 一次性學習(學習“相似性”函數) 在這種情況下,一次性學習就是:從一個例子中學習以再次認識這個人。 函數![](https://img.kancloud.cn/1c/fa/1cfabac5544fe67025c47213f99279e4_110x18.gif)表示 img1 和 img2 之間的差異程度。 ![One-Shot Learning](https://img.kancloud.cn/86/e9/86e9aa20b707983145c70621a6024793_516x84.jpg) ###### Siamese 網絡(學習差異/相似程度) ![Siamese Network](https://img.kancloud.cn/1b/77/1b7706bc1406f77f884a96e18fb8f73a_326x323.jpg) 如果我們相信編碼函數![](https://img.kancloud.cn/90/34/90340615fd75f4a3550a82c374838b6b_34x18.gif)可以很好地表示圖片,則可以定義距離,如上圖底部所示。 **學習**: 可學習的參數:定義編碼![](https://img.kancloud.cn/90/34/90340615fd75f4a3550a82c374838b6b_34x18.gif)的神經網絡參數 學習這些參數,以便: * 如果![](https://img.kancloud.cn/96/a5/96a50da5f7374d8d6617c053fb22558a_23x18.gif)和![](https://img.kancloud.cn/4e/2b/4e2b3dea12f381b3f5cb61078eade436_25x18.gif)是同??一個人,則![](https://img.kancloud.cn/b3/a6/b3a6535ba79c969fd7d0fdf26041aa53_148x23.gif)較小 * 如果![](https://img.kancloud.cn/96/a5/96a50da5f7374d8d6617c053fb22558a_23x18.gif)和![](https://img.kancloud.cn/4e/2b/4e2b3dea12f381b3f5cb61078eade436_25x18.gif)是不同的人,則![](https://img.kancloud.cn/b3/a6/b3a6535ba79c969fd7d0fdf26041aa53_148x23.gif)很大 ###### 三重損失(一次查看三張圖片) ![Triplet Loss](https://img.kancloud.cn/76/db/76dbd1ec8236ac00b1d5586e28956699_298x175.jpg) 這三張圖片是: * 錨圖片 * 正圖片:錨圖片中同一個人的另一張圖片 * 負圖片:錨圖片中另一張不同人的圖片。 但是,僅學習上述損失函數將存在問題。 該損失函數可能導致學習![](https://img.kancloud.cn/09/1d/091da5804a109416aea001e043dbb78c_165x18.gif)。 為避免出現此問題,我們可以添加一個小于零的項,即![](https://img.kancloud.cn/4c/e3/4ce30cc48d3a4e074209d8cd624ca185_343x21.gif)。 要對其進行重組: ![Triplet Loss](https://img.kancloud.cn/a1/98/a198bd1989acee2132e74d6067307e9d_268x21.jpg) 匯總**損失函數**: ![Triplet Loss](https://img.kancloud.cn/53/ce/53ce2e0e0044411d2cbc7ab789b27fb2_375x67.jpg) **選擇 A,P,N 的三元組**: 在訓練期間,如果隨機選擇 A,P,N,則很容易滿足![](https://img.kancloud.cn/50/ec/50ecd1d5e3923aad9f4e6b322490801a_177x18.gif)。 學習算法(即梯度下降)不會做任何事情。 我們應該選擇難以訓練的三元組。 !["Hard" Examples](https://img.kancloud.cn/3b/fc/3bfc49302c5724a57e0a09a9279b8400_134x44.jpg) 當使用困難三元組進行訓練時,梯度下降過程必須做一些工作以嘗試將這些量推離。 ##### 人臉識別/驗證和二元分類 ![Binary Classification](https://img.kancloud.cn/91/a5/91a533ef31de9606189a634484be204c_394x247.jpg) 我們可以學習一個 Sigmoid 二元分類函數: ![Binary Classification](https://img.kancloud.cn/66/90/66903803530875698a48a844944b904b_389x75.jpg) 我們還可以使用其他變量,例如卡方相似度: ![Binary Classification](https://img.kancloud.cn/e4/0e/e40ecd1152831613f37a8a3c39d905f9_411x75.jpg) #### 神經風格轉換 ![Style Transfer](https://img.kancloud.cn/02/bb/02bb959c7e8ca38f5ac232107d06b573_720x665.jpg) 內容圖像來自電影 Bolt。 樣式圖像是“百馬圖”的一部分,這是中國最著名的古代繪畫之一。 [https://deepart.io](https://deepart.io) 支持生成的圖像。 損失函數![](https://img.kancloud.cn/20/6f/206f349991c0724c2fdce788124abe1c_11x12.gif)包含兩部分:![](https://img.kancloud.cn/7d/fd/7dfd1e1a260692cf0fe9f63ddb16ff2d_53x15.gif)和![](https://img.kancloud.cn/77/98/77980a2619bc637ab438e5a7285e5901_37x18.gif)。 為了得到生成的圖像![](https://img.kancloud.cn/33/8e/338ec0451e1b4b7e7decd0b4443a8828_14x12.gif): 1. 隨機初始化圖像![](https://img.kancloud.cn/33/8e/338ec0451e1b4b7e7decd0b4443a8828_14x12.gif) 2. 使用梯度下降來最大程度地降低![](https://img.kancloud.cn/97/10/9710e1737fcec18c5998873a290a596d_38x18.gif) **內容成本函數,![](https://img.kancloud.cn/7d/fd/7dfd1e1a260692cf0fe9f63ddb16ff2d_53x15.gif)** : 內容成本函數可確保不會丟失原始圖像的內容。 1)使用隱藏層(不太深也不太淺)![](https://img.kancloud.cn/6e/f3/6ef3a507737f856ff56d8cf70a0bbc8c_5x13.gif)來計算內容成本。 (我們可以使用來自預訓練的卷積神經網絡的![](https://img.kancloud.cn/6e/f3/6ef3a507737f856ff56d8cf70a0bbc8c_5x13.gif)層) ![Select a Hidden Layer](https://img.kancloud.cn/c7/2f/c72fa7fb9059cb68374d5161df543ea5_480x142.jpg) 2) ![Activation of Layer l](https://img.kancloud.cn/65/b4/65b454a42c865282ff0a6ea9a8137640_859x37.jpg) 3) ![Content Cost](https://img.kancloud.cn/12/a6/12a627d0c63537a40ef8bde3169edbb6_784x106.jpg) **樣式成本函數,![](https://img.kancloud.cn/77/98/77980a2619bc637ab438e5a7285e5901_37x18.gif)** : 1)假設我們正在使用![](https://img.kancloud.cn/66/49/6649815d9e16ddad7a294dea4ff98220_14x13.gif)層激活來衡量樣式。 ![Select a Hidden Layer](https://img.kancloud.cn/bc/82/bc8219fe604fea0dc7424e90407c7634_398x182.jpg) 2)將圖片樣式定義為跨通道激活之間的相關性 ![Channels of Layer l](https://img.kancloud.cn/a7/9c/a79c9853161dab5909edd135bc773c1a_546x300.jpg) 矩陣![](https://img.kancloud.cn/33/8e/338ec0451e1b4b7e7decd0b4443a8828_14x12.gif)中的元素反映了跨不同通道的激活之間的相關性(例如,高級紋理成分是否傾向于同時出現或不出現)。 對于樣式圖片: ![Matrix of the Style Image](https://img.kancloud.cn/95/0d/950d39f3170dabdbfa092a22b05b596d_320x92.jpg) 對于生成的圖像: ![Matrix G of the Generated Image](https://img.kancloud.cn/0c/46/0c46da3a294bb4827e98ef0f4e9e8dc7_314x88.jpg) **樣式函數**: ![Style Function](https://img.kancloud.cn/59/22/5922e1464f45f30699a097c590519af2_731x66.jpg) 您也可以考慮合并不同層的樣式損失。 ![Style Loss Function Combining Different Layers ](https://img.kancloud.cn/f0/95/f095025d350ffd7d159c636ee1c3dd8f_347x63.jpg) #### 1D 和 3D 卷積概括 ![1D and 3D Generalisations](https://img.kancloud.cn/63/09/63095c9624a179f588cb5869ef7baec1_534x428.jpg) ### 序列模型 #### 循環神經網絡模型 **前向**: ![RNN](https://img.kancloud.cn/c1/a6/c1a67c65ec65acc09680ae342176733c_1181x579.jpg) 在此圖中,紅色參數是可學習的變量![](https://img.kancloud.cn/98/2b/982ba703f70cd3d04aa174ca0d31e9ac_19x12.gif)和![](https://img.kancloud.cn/a0/76/a07675eb420c5a094218ccaf1bb3763f_8x13.gif)。 在每個步驟的最后,將計算該步驟的損失。 最后,將每個步驟的所有損失匯總為整個序列的總損失![](https://img.kancloud.cn/97/6a/976a9873db9a0ff36b3355ca2ae10e92_12x12.gif)。 這是每個步驟的公式: ![Backpropagation Through Time](https://img.kancloud.cn/4a/cd/4acd94a96964f9602a78984a4d806716_417x154.jpg) 總損失: ![Total Loss](https://img.kancloud.cn/d0/5f/d05f91d759f27fe0eb2130972f81dccf_321x211.jpg) **時間上的反向傳播**: ![Backpropagation Through Time](https://img.kancloud.cn/01/94/0194ae6277c5b2a5f2c4dbb24453a380_642x423.jpg) #### 門控循環單元(GRU) ##### GRU(簡化) ![GRU (Simplified)](https://img.kancloud.cn/46/99/4699a4e59bec885549dcaffd51ce7d3c_4313x1838.jpg) ##### GRU(完整) ![GRU (full)](https://img.kancloud.cn/2e/13/2e1388fa0416520de3cf6ce34767333f_5106x1938.jpg) #### 長期短期記憶(LSTM) ![Long Short Term Memory (LSTM)](https://img.kancloud.cn/88/da/88da3d3702513a483cf85226a808d19c_5175x1738.jpg) * ![](https://img.kancloud.cn/cd/a6/cda6e38fe6d35a0c0edf0fcca33ab533_10x8.gif):更新門 * ![](https://img.kancloud.cn/18/8e/188ee644e8202aad30eac11166858841_10x16.gif):遺忘門 * ![](https://img.kancloud.cn/ab/ea/abea022b1328552931119705a4de7d01_9x8.gif):輸出門 #### 雙向 RNN ![Bidirectional RNN](https://img.kancloud.cn/a9/6c/a96ca11284578257da81730b7f236b48_2013x988.jpg) #### 深度 RNN 示例 ![Deep RNN Example](https://img.kancloud.cn/9e/55/9e55c863f7000634841ae5f88d87b892_756x746.jpg) #### 詞嵌入 ##### 單熱 ![One-Hot](https://img.kancloud.cn/8e/40/8e408f1934f51be10ed06fb61637d086_491x290.jpg) ##### 嵌入矩陣(![](https://img.kancloud.cn/53/89/5389d2369476aa98f4548707c9bceb61_14x12.jpg)) ![Embedding Matrix](https://img.kancloud.cn/2e/73/2e7366c8c929abab00bb00f426f1ddbd_333x215.jpg) ![](https://img.kancloud.cn/63/78/637848844482da65da86e98f18b0e300_45x12.gif)是代表未知詞的特殊符號。 所有未見過的單詞將被強制轉換為![](https://img.kancloud.cn/63/78/637848844482da65da86e98f18b0e300_45x12.gif)。 矩陣由![](https://img.kancloud.cn/53/89/5389d2369476aa98f4548707c9bceb61_14x12.jpg)表示。 如果我們想獲取單詞嵌入,可以按如下所示使用單詞的單熱向量: ![Get Word Embedding](https://img.kancloud.cn/33/af/33af606d88dd6bf5669a7c6714755fde_277x223.jpg) 通常,可以將其公式化為: ![Get Word Embedding Equation](https://img.kancloud.cn/ca/9a/ca9a4f5dd3d61d4afda19c3096ad8a99_172x21.jpg) ##### 學習單詞嵌入 ![Learning Word Embedding](https://img.kancloud.cn/af/bf/afbf2a5d65fb636c6bb64cdadc109e1a_1300x556.jpg) 在該模型中,可以像其他參數(即![](https://img.kancloud.cn/b0/03/b003ca8502453b29e8096b2a52c3abdc_13x8.gif)和![](https://img.kancloud.cn/a0/76/a07675eb420c5a094218ccaf1bb3763f_8x13.gif))一樣學習嵌入矩陣(即![](https://img.kancloud.cn/53/89/5389d2369476aa98f4548707c9bceb61_14x12.jpg))。 所有可學習的參數均以藍色突出顯示。 該模型的總體思想是在給定上下文的情況下預測目標單詞。 在上圖中,上下文是最后 4 個單詞(即 a,玻璃,of,橙色),目標單詞是“ to”。 另外,有多種方法可以定義目標詞的上下文,例如: * 最后![](https://img.kancloud.cn/f2/48/f248e891effc6650d9d31fbefc54cbe4_11x8.gif)個字 * 目標詞周圍![](https://img.kancloud.cn/f2/48/f248e891effc6650d9d31fbefc54cbe4_11x8.gif)個 * 附近的一個字(Skip-gram 的思路) * … ##### Word2Vec & SkipGram **句子**: ``` I want a glass of orange juice to go along with my cereal. ``` 在此詞嵌入學習模型中,**上下文**是從句子中隨機選擇的詞。 **目標**是用上下文詞的窗口隨機拾取的詞。 例如: 讓我們說上下文詞為`orange`,我們可能會得到以下訓練示例。 ![Context and Target](https://img.kancloud.cn/9c/b5/9cb5302e5620ee44a60b3976300f6151_124x87.jpg) **模型**: ![Model](https://img.kancloud.cn/4e/59/4e5958e2faa78e9e95b019e51fd7b39e_346x155.jpg) softmax 函數定義為: ![Softmax](https://img.kancloud.cn/56/66/56664fe155b6813ca6023aee73ca56e9_215x77.jpg) ![](https://img.kancloud.cn/8b/78/8b78ffaa5ffc414500301f5773fd4fa6_13x15.gif)是與輸出關聯的參數,![](https://img.kancloud.cn/7d/3c/7d3cc8734555c6244e2f34a4c85d65e7_14x11.gif)是上下文字的當前嵌入。 使用 softmax 函數的**問題**是分母的計算成本太大,因為我們的詞匯量可能很大。 為了減少計算量,負采樣是不錯的解決方案。 ##### 負采樣 **句子**: ``` I want a glass of orange juice to go along with my cereal. ``` 給定一對單詞(即上下文單詞和另一個單詞)和標簽(即第二個單詞是否為目標單詞)。 如下圖所示,(`orange`)是一個正例,因為單詞`juice`是橙色的真正目標單詞。 由于所有其他單詞都是從詞典中隨機選擇的,因此這些單詞被視為錯誤的目標單詞。 因此,這些對是負例(如果偶然將真實的目標單詞選作負例,也可以)。 ![Negative Sampling](https://img.kancloud.cn/4a/62/4a6234385dbfaa29351ab7959003007c_353x126.jpg) 至于每個上下文詞的負面詞數,如果數據集很小,則為![](https://img.kancloud.cn/8e/b6/8eb6a99f82a6aa098abd6af97529e97e_82x13.gif);如果數據集很大,則為![](https://img.kancloud.cn/7d/c0/7dc0c157d50129f6382f90d9bd581d7d_73x13.gif)。 **模型**: ![Negative Sampling Model](https://img.kancloud.cn/91/d6/91d621c3968640ddb8624aaa2d08834d_590x186.jpg) 我們僅訓練 softmax 函數的![](https://img.kancloud.cn/c8/02/c8028e46e9217be90ebc65ddcf04ae3b_47x14.gif) logistic 回歸模型。 因此,計算量低得多且便宜。 **如何選擇負例?** : ![Sampling Distribution](https://img.kancloud.cn/87/10/87101fc281a8c3fd41586802a99449ad_318x121.jpg) ![](https://img.kancloud.cn/27/4c/274cda0291865bbbf55d9d6aaaa39a45_42x18.gif)是單詞頻率。 如果使用第一個樣本分布,則可能總是選擇諸如`the, of`等之類的詞。但是,如果使用第三個分布,則所選詞將是非代表性的。 因此,第二分布可以被認為是用于采樣的更好的分布。 這種分布在第一個和第三個之間。 ##### GloVe 向量 **表示法**:![](https://img.kancloud.cn/5e/50/5e50552e493fae456105811811643f8d_44x18.gif)單詞![](https://img.kancloud.cn/ce/2f/ce2f0b65d997f22465d44c6f3c70f0df_6x13.gif)在單詞![](https://img.kancloud.cn/f3/99/f3990417ea74c9d830634565aa466608_9x16.gif)的上下文中出現的次數 **模型**: ![Objective Function](https://img.kancloud.cn/aa/8a/aa8a5775ecd5378532f1c4ca68da5c4a_606x144.jpg) ![](https://img.kancloud.cn/80/70/80706aad1b2bd7925cadce36a1531aeb_25x18.gif)測量這兩個詞之間的關聯程度以及這兩個詞在一起出現的頻率。 ![](https://img.kancloud.cn/63/ad/63adc72d8f95d99cdb5c7f67e1245068_50x20.gif)是權重項。 它給高頻對帶來了不太高的權重,也給了不太常見的對帶來了不太小的權重。 如果我們檢查![](https://img.kancloud.cn/d7/4e/d74edaaf2305d2d981f9c13219e34f36_9x12.gif)和![](https://img.kancloud.cn/d1/fa/d1fad67da0f6fb96a3cbbc1982b7fe4f_8x8.gif)的數學運算,實際上它們起著相同的作用。 因此,詞的最終詞嵌入為: ![Final Word Embedding](https://img.kancloud.cn/ea/c4/eac46a17bcef65474a3516e2ecfe1953_206x75.jpg) ##### 深度上下文化的詞表示形式(ELMo,語言模型的嵌入) 預訓練雙向語言模型 正向語言模型:給定![](https://img.kancloud.cn/05/58/0558e93d918ff32e873b6a71703e9969_16x12.gif)個符號的序列![](https://img.kancloud.cn/aa/65/aa65aab921b8aba360393a1dea27e6a3_82x18.gif),正向語言模型計算序列概率,通過建模給定歷史的![](https://img.kancloud.cn/c8/13/c81399e6063393112d86c5199c4b4ea7_13x15.gif)的概率,即, ![](https://img.kancloud.cn/58/33/5833a81902035aae809186cb38bf2ed8_417x41.jpg) 反向語言模型:類似地, ![](https://img.kancloud.cn/e2/ea/e2ea647193a91abc301d30781639155c_442x36.jpg) 雙向語言模型:它結合了正向和反向語言模型。 共同最大化正向和后向的似然: ![](https://img.kancloud.cn/b3/36/b336b36b927dc5237449bc3ff17d7393_489x38.jpg) LSTM 用于建模前向和后向語言模型。 ![bidirectional language model](https://img.kancloud.cn/a8/fa/a8fa9dbd9e647e0d9683363088f6f547_3424x1399.jpg) 就輸入嵌入而言,我們可以只初始化這些嵌入或使用預先訓練的嵌入。 對于 ELMo,通過使用字符嵌入和卷積層,會更加復雜,如下所示。 ![Input Embeddings](https://img.kancloud.cn/7f/83/7f83a6527f439c186e89215cbb826455_171x276.jpg) 訓練了語言模型之后,我們可以得到句子中單詞的 ELMo 嵌入: ![ELMo](https://img.kancloud.cn/52/51/52511c6487cdb92660d9e496ce39bb95_3424x3390.jpg) 在 ELMo 中,![](https://img.kancloud.cn/5e/d7/5ed73b8b63ac69b8e9333f3a9ff6fc74_8x8.gif)是 softmax 歸一化的權重,而![](https://img.kancloud.cn/8c/8b/8c8b9dbbd1e6b0fac772d9589e2d0ca2_10x12.jpg)是標量參數,允許任務模型縮放整個 ELMo 向量。 可以在任務特定模型的訓練過程中學習這些參數。 參考: [1] [https://www.slideshare.net/shuntaroy/a-review-of-deep-contextualized-word-representations-peters-2018](https://www.slideshare.net/shuntaroy/a-review-of-deep-contextualized-word-representations-peters-2018) [2] [http://jalammar.github.io/illustrated-bert/](http://jalammar.github.io/illustrated-bert/) [3] [https://www.mihaileric.com/posts/deep-contextualized-word-representations-elmo/](https://www.mihaileric.com/posts/deep-contextualized-word-representations-elmo/) #### 序列到序列模型示例:翻譯 任務是將一個序列轉換為另一個序列。 這兩個序列可以具有不同的長度。 ![Sequence to Sequence](https://img.kancloud.cn/a5/13/a51371b135f4f5ea25b3b203d819b995_375x35.jpg) ![Model](https://img.kancloud.cn/67/19/6719664890fb210ae98039afc3a08fbd_530x150.jpg) ##### 選擇最可能的句子(集束搜索) ###### 集束搜索 使用序列對模型進行序列化在機器翻譯中很流行。 如圖所示,翻譯是逐個標記地生成的。 問題之一是如何挑選最可能的整個句子? 貪婪搜索不起作用(即在每個步驟中選擇最佳單詞)。 集束搜索是一種更好的解決方案。 ![Beam Search (Beam Width = 3)](https://img.kancloud.cn/d8/9a/d89a91d4485849d83497e3403b5fafd5_782x780.jpg) 讓我們假設集束搜索寬度為 3。因此,在每一步中,我們只保留了前 3 個最佳預測序列。 例如(如上圖所示), * 在第 1 步中,我們保留` in, June, September` * 在第 2 步中,我們保留以下順序:` (in, September), (June is), (June visits)` * … 至于集束搜索寬度,如果我們有一個較大的寬度,我們可以獲得更好的結果,但是這會使模型變慢。 另一方面,如果寬度較小,則模型會更快,但可能會損害其性能。 集束搜索寬度是一個超參數,最佳值可能是領域特定的。 ###### 長度標準化 翻譯模型的學習將最大化: ![Beam Search (Beam Width = 3)](https://img.kancloud.cn/9a/1f/9a1fd7ed6c1d5b0bb9f882913e78ea2c_347x62.jpg) 在對數空間中,即: ![Beam Search (Beam Width = 3)](https://img.kancloud.cn/33/7f/337f534d70765dc56a63197647d193d0_390x65.jpg) 上述目標函數的問題在于對數空間中的分數為 始終為負,因此使用此函數將使模型偏向一個很短的句子。 我們不希望翻譯實際上太短。 我們可以在開頭添加一個長度標準化項: ![Beam Search (Beam Width = 3)](https://img.kancloud.cn/36/f6/36f6bbe4ddb6b7f73cb86f6b678e2f05_409x101.jpg) ###### 集束搜索中的錯誤分析(啟發式搜索算法) 在調整模型的參數時,我們需要確定它們的優先級(即,更應該歸咎于 RNN 或集束搜索部分)。 (通常增加集束搜索寬度不會損害性能)。 **示例** 從開發集中選擇一個句子并檢查我們的模型: **句子**:`Jane visite l’Afrique en septembre.` **來自人類的翻譯**:`Jane visits Africa in September. `(![](https://img.kancloud.cn/95/16/9516d18d8f7eb561d148e7926cfb242f_16x17.jpg)) **算法的輸出(我們的模型)**:`Jane visited Africa last September. ` (![](https://img.kancloud.cn/26/52/265211f84b3ffdfacab0a3a31c3b065c_9x17.jpg)) 為了弄清楚應該歸咎于哪個,我們需要根據 RNN 神經網絡計算并比較![](https://img.kancloud.cn/55/31/5531b7eb5b6056d43cda83cd0ff03fa3_55x19.gif)和![](https://img.kancloud.cn/20/e6/20e6c295f7c64f1541b8254d2311401d_47x19.gif)。 如果![](https://img.kancloud.cn/0b/83/0b83521bb8d5b922b82d31e45944fc84_111x19.gif): ![](https://img.kancloud.cn/95/16/9516d18d8f7eb561d148e7926cfb242f_16x17.jpg)獲得更高的概率,則可以得出結論,集束搜索存在故障。 如果 ![](https://img.kancloud.cn/94/1a/941ac80d1fac4e9917eea465b3600cb7_111x19.gif): RNN 預測![](https://img.kancloud.cn/94/1a/941ac80d1fac4e9917eea465b3600cb7_111x19.gif),但實際上![](https://img.kancloud.cn/95/16/9516d18d8f7eb561d148e7926cfb242f_16x17.jpg)比![](https://img.kancloud.cn/26/52/265211f84b3ffdfacab0a3a31c3b065c_9x17.jpg)更好,因為它來自真實的人。 因此,RNN 模型應該有問題。 通過在開發集中的多個實例上重復上述錯誤分析過程,我們可以得到下表: ![Beam Search (Beam Width = 3)](https://img.kancloud.cn/2f/f0/2ff056e63cb3807d8111c2e646396f17_361x180.jpg) 根據該表,我們可以找出是由于集束搜索/ RNN。 如果大多數錯誤是由于集束搜索造成的,請嘗試增加集束搜索寬度。 否則,我們可能會嘗試使 RNN 更深入/添加正則化/獲取更多訓練數據/嘗試不同的架構。 ##### Bleu 得分 如果一個句子有多個出色的答案/推薦,我們可以使用 Bleu 得分來衡量模型的準確性。 **示例(二元組的 Bleu 得分)**: **法語**:` Le chat est sur le tapis.` **參考 1**:`The cat is on the mat.` **參考 2**:`There is a cat on the mat.` **我們模型的輸出**:`The cat the cat on the cat.` ![Bleu Score on Bigram Example](https://img.kancloud.cn/27/64/27646a03bbbc7c9f4de30dc902c3fcd2_246x120.jpg) **計數**是輸出中出現的當前二元組的數量。 **截斷計數**是二元組出現在參考 1 或參考 2 中的最大次數。 然后可以將二元組的 Bleu 分數計算為: ![Bleu Score on Bigram](https://img.kancloud.cn/5d/86/5d863821ee9f645654c28c6596a72efc_339x99.jpg) 上面的等式可以用來計算 unigram,bigram 或 any-gram Bleu 分數。 ##### 組合 Bleu 合并的 Bleu 分數合并了不同 Gram 的分數。 ![](https://img.kancloud.cn/d9/25/d9258a59245833381958e5545bce0ce2_18x12.gif)僅表示 n-gram 的 Bleu 分數。 如果我們具有![](https://img.kancloud.cn/b1/98/b198029e1fbdf55f72326744fe6363e5_18x16.gif),![](https://img.kancloud.cn/33/32/3332f9ea5b628d5bae93ad41887159bd_18x15.gif),![](https://img.kancloud.cn/e5/7a/e57ace61b1b20664090f838f3493ac12_18x15.gif)和![](https://img.kancloud.cn/a0/65/a065c4304cf437d49c3691e14969663b_19x15.gif),則可以組合為以下內容: ![Bleu Score on Bigram](https://img.kancloud.cn/35/90/35905739fba1f9b25d91a5d19d490025_671x102.jpg) 簡短的懲罰會懲罰簡短的翻譯。 (我們不希望翻譯得太短,因為簡短的翻譯會帶來很高的精度。 ##### 注意力模型 RNN(例如 lstm)的一個問題是很難記住超長句子。 模型翻譯質量將隨著原始句子長度的增加而降低。 ![Attention Model](https://img.kancloud.cn/57/78/5778f437262d4ef321549809193cd7fb_732x386.jpg) 有多種計算注意力的方法。 一種方法是: ![Attention Computation](https://img.kancloud.cn/44/3b/443b561ce37c9ab2dd4f5055ce1acc0f_259x198.jpg) 在這種方法中,我們使用小型神經網絡將之前和當前的信息映射到注意力權重。 已經證明注意力模型可以很好地工作,例如歸一化。 ![Attention Model Example](https://img.kancloud.cn/ea/61/ea61c9ae8ba919aaa207b6494cfa1295_194x42.jpg) ### 轉換器(“Attention Is All You Need”) **架構**: ![Transformer](https://img.kancloud.cn/a0/b0/a0b0118a3556fce485c4e7c4752c2a52_4568x6795.jpg) **詳細信息**: 輸入嵌入: 模型的輸入嵌入是單詞嵌入及其每個單詞的位置編碼的總和。 例如,對于輸入句子![](https://img.kancloud.cn/91/13/9113631e58cd64df25e6ed8a3b90f950_116x18.gif)。 ![](https://img.kancloud.cn/3c/1a/3c1a60edb621d9a7b223a34d87cdef02_11x10.gif)是句子中每個單詞的單詞嵌入(可以是預訓練的嵌入)。 輸入嵌入應為![](https://img.kancloud.cn/90/61/90619c1080feedb482ad8474446559e2_194x18.gif)。 ![](https://img.kancloud.cn/b1/d3/b1d36d426651bfd48731d677de806efb_71x18.gif)是每個單詞的位置編碼。 有許多方法可以對單詞位置進行編碼。 在本文中,使用的編碼方法是: ![](https://img.kancloud.cn/61/01/61019d58f86ac1466a88bf0e111ff41a_220x37.gif) ![](https://img.kancloud.cn/7e/5b/7e5bd9b9b4a1886d8e0461c4c2d9c0c7_236x37.gif) ![](https://img.kancloud.cn/bb/4b/bb4b574008fb2bb911d719f3bc5313c2_65x17.gif)是單詞在句子中的位置。 ![](https://img.kancloud.cn/ce/2f/ce2f0b65d997f22465d44c6f3c70f0df_6x13.gif)是位置編碼的元素位置。 ![](https://img.kancloud.cn/dd/09/dd097dc7f8ea362153b822fc86f60a3c_56x13.gif)是模型中編碼器的輸出尺寸大小。 解碼器 * 頂部編碼器的輸出將轉換為注意力向量![](https://img.kancloud.cn/3c/de/3cde17081450c796e69ed3a74adbffa2_16x12.gif)和![](https://img.kancloud.cn/ba/ea/baeac1d9d7cf057a52a3fbff326ac3de_14x12.jpg)。 這些用于多頭注意力子層(也稱為編解碼器注意力)。 注意力向量可以幫助解碼器專注于輸入句子的有用位置。 * 掩碼的自注意只允許專注于輸出句子的較早位置。 因此,通過在 softmax 步驟之前將它們設置為-inf。 * “多頭注意”層類似于編碼器中的“自注意”層,除了: * 它從頂部編碼器的輸出中獲取![](https://img.kancloud.cn/3c/de/3cde17081450c796e69ed3a74adbffa2_16x12.gif)和![](https://img.kancloud.cn/ba/ea/baeac1d9d7cf057a52a3fbff326ac3de_14x12.jpg) * 它從其下一層創建![](https://img.kancloud.cn/54/f4/54f41ed7879a6779865ad86d9ad0e7b8_14x16.gif) 參考: [https://jalammar.github.io/illustrated-transformer/](https://jalammar.github.io/illustrated-transformer/) ### 轉換器的雙向編碼器表示(BERT) BERT 是通過堆疊轉換器編碼器構建的。 ![BERT](https://img.kancloud.cn/84/b2/84b28e15b4d08bfdd23c2985c05f2f7a_628x335.jpg) 對未標記的大文本進行預訓練(預測被掩蓋的單詞) ![BERT Pretrain](https://img.kancloud.cn/fd/06/fd06cb47e1e34acf80f8cd9f2baf384c_628x624.jpg) “帶掩碼的語言模型會隨機掩蓋輸入中的某些標記,目的是為了 僅根據上下文來預測被屏蔽單詞的原始詞匯 ID。” [2] 使用受監督的訓練對特定任務(例如, 分類任務,NER 等 ![BERT Classification](https://img.kancloud.cn/60/1d/601de6ffd127b11aedfbca72acc9afd4_672x591.jpg) BERT 論文的下圖顯示了如何將模型用于不同的任務。 ![BERT on different tasks](https://img.kancloud.cn/9f/81/9f81d9d0b9c9d36fb2074dc5a9f1ddd2_978x660.jpg) 如果特定任務不是分類任務,則可以忽略[CLS]。 參考: [1] http://jalammar.github.io/illustrated-bert/ [2] Devlin, J., Chang, M.W., Lee, K. and Toutanova, K., 2018. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. ### 實用提示 #### 訓練/開發/測試數據集 * 通常,我們將數據集的 **70%** 用作訓練數據,將 30%用作測試集; 或 **60%**(訓練)/ **20%**(開發)/ **20%**(測試)。 但是,如果我們有一個大數據集,則可以將大多數實例用作訓練數據(例如 1,000,000, **98%**),并使開發和測試集的大小相等(例如 10,000( **1% 用于開發**),測試集使用 10,000( **1%**)。 由于我們的數據集很大,因此開發和測試集中的 10,000 個示例綽綽有余。 * 確保開發和測試集來自同一分布 **我們可能遇到的另一種情況**: 1)我們要為特定域構建系統,但是在該域中我們只有幾個標記數據集(例如 10,000) 2)我們 可以從類似的任務中獲得更大的數據集(例如 200,000 個實例)。 在這種情況下,如何構建訓練,開發和測試集? 最簡單的方法是將兩個數據集組合在一起并對其進行隨機排序。 然后,我們可以將合并的數據集分為三個部分(訓練,開發和測試集)。 但是,這不是一個好主意。 因為我們的目標是為我們自己的特定領域構建系統。 將沒有來自我們自己域的一些實例添加到開發/測試數據集中以評估我們的系統是沒有意義的。 合理的方法是: 1)將所有更容易使用的實例(例如 200,000)添加到訓練集中 2)從特定域數據集中選擇一些實例并將它們添加到訓練集中 3)將我們自己領域的其余實例分為開發和測試集 ![dataset](https://img.kancloud.cn/c1/cd/c1cd25b4b2479d9c61631a1dc71e0a2b_361x82.jpg) #### 過擬合/欠擬合,偏差/方差,與人類水平的表現比較,解決方案 ##### 過擬合/欠擬合,偏差/方差 對于分類任務,人類分類誤差應該在 0%左右。 監督模型在訓練和開發集上的各種可能的表現分析如下所示。 | | | | | | | --- | --- | --- | --- | --- | | 人為錯誤 | 0.9% | 0.9% | 0.9% | 0.9% | | 訓練集錯誤 | 1% | 15% | 15% | 0.5% | | 測試集錯誤 | 11% | 16% | 30% | 1% | | 評價 | 過擬合 | 欠擬合 | 欠擬合 | 良好 | | | 高方差 | 高偏差 | 高偏差和方差 | 低偏差和方差 | **解決方案**: ![solutions for high bias and variance](https://img.kancloud.cn/3a/45/3a4596b674b4b18bc464ded7231bb9d0_384x418.jpg) ##### 與人類水平的表現比較 您可能已經注意到,在上表中,人為水平的誤差設置為 0.9%,如果人為水平的表現不同但訓練/開發誤差相同,該怎么辦? | | | | | --- | --- | --- | | 人為錯誤 | **1%** | **7.5%** | | 訓練集錯誤 | 8% | 8% | | 測試集錯誤 | 10% | 10% | | 評價 | 高偏差 | 高方差 | 盡管模型誤差相同,但在左圖中人為誤差為 1%時,我們有高偏差問題,而在右圖中有高方差問題。 至于模型的性能,有時它可能比人類的模型更好。 但是只要模型的性能不如人類,我們就可以: 1)從人類獲得更多的標記數據 2)從手動誤差分析中獲得見解 3)從偏差/方差分析中獲得見解 #### 數據分布不匹配 當我們為自己的特定領域構建系統時,針對我們自己的問題,我們只有幾個帶標簽的實例(例如 10,000 個)。 但是我們很容易從另一個類似的領域中收集很多實例(例如 200,000 個)。 此外,大量容易獲得的實例可能有助于訓練一個好的模型。 數據集可能看起來像這樣: ![dataset](https://img.kancloud.cn/c1/cd/c1cd25b4b2479d9c61631a1dc71e0a2b_361x82.jpg) 但是在這種情況下,訓練集的數據分布與開發/測試集不同。 這可能會導致副作用-數據不匹配問題。 為了檢查我們是否存在數據不匹配問題,我們應該隨機選擇訓練集的一個子集作為名為訓練-開發數據集的驗證集。 該集合具有相同的訓練集分布,但不會用于訓練。 ![dataset](https://img.kancloud.cn/5c/a9/5ca9c3faac4a065e36c6deb628aba269_362x41.jpg) | | | | | | | --- | --- | --- | --- | --- | | 人為誤差 | 0% | 0% | 0% | 0% | | 訓練誤差 | 1% | 1% | 10% | 10% | | 訓練-開發誤差 | 9% | 1.5% | 11% | 11% | | 開發誤差 | 10% | 10% | 12% | 20% | | 問題 | 高方差 | 數據不匹配 | 高偏差 | 高偏差+數據不匹配 | 總結一下: ![measure of different problems](https://img.kancloud.cn/8c/43/8c43fc2483e8c951412a1fd964e3c624_316x101.jpg) ##### 解決了數據分布不匹配的問題 首先,進行手動錯誤分析以嘗試了解我們的訓練集和開發/測試集之間的區別。 其次,根據分析結果,我們可以嘗試使訓練實例與開發/測試實例更相似。 我們還可以嘗試收集更多與開發/測試集的數據分布相似的訓練數據。 #### 輸入標準化 我們有一個包含![](https://img.kancloud.cn/e7/7e/e77e1905584d83cf5a3dc7079bef474f_16x8.gif)示例的訓練集。 ![](https://img.kancloud.cn/e9/33/e933876fd7274f0c2890065899c582b5_29x18.gif)代表![](https://img.kancloud.cn/8a/96/8a967a7f01e909a6d556f08a523d4821_19x16.gif)示例。 輸入標準化如下。 ![](https://img.kancloud.cn/9e/5d/9e5dc28874bd34ac2d6f9fdaff76a592_97x37.gif), ![](https://img.kancloud.cn/89/4e/894e1f3f5386c81c779a205cbe8f6dfd_116x51.gif), ![](https://img.kancloud.cn/a2/dc/a2dc7cb4cd1e27cc947c3d3cd64b1b82_142x51.gif) **注意**:必須使用相同的![](https://img.kancloud.cn/da/ae/daae94eb5dc924acf8a8609e74df9f3a_11x12.jpg)和![](https://img.kancloud.cn/8c/97/8c97e53e47d9ac642fc260db31a39a84_17x16.jpg)訓練數據來標準化測試數據集。 使用輸入標準化可以使訓練更快。 假設輸入是二維![](https://img.kancloud.cn/fb/70/fb70baccf8727357af4a39ca481908fc_101x18.gif)。 范圍分別是![](https://img.kancloud.cn/10/f6/10f601bc49047c05482f621dfb02fb3b_21x16.jpg)和![](https://img.kancloud.cn/a0/9a/a09ac5d41ade17b230c6c551c1764c3f_21x15.jpg)的[1-1000]和[1-10]。 損失函數可能看起來像這樣(左): ![left:non-normalized right: normalized](https://img.kancloud.cn/5b/5f/5b5f723bf84a4c4d3b718ff9b215ca4c_390x198.jpg) #### 使用單一數字模型評估指標 如果我們不僅關心模型的表現(例如準確性,F 分數等),還關心運行時間,則可以設計一個數字評估指標來評估我們的模型。 例如,我們可以結合表現指標和運行時間,例如![](https://img.kancloud.cn/9a/04/9a04cddbc8778575e9e863acf08e1d98_324x17.gif)。 另外,我們還可以指定可以接受的最大運行時間: ![](https://img.kancloud.cn/8e/0d/8e0dbf4fa04e07ebb7c265606aab5c8c_120x12.gif) ![](https://img.kancloud.cn/53/e8/53e807ff584ec45f7ea8126281088408_277x17.gif) #### 錯誤分析(優先考慮后續步驟) 進行錯誤分析對于確定改善模型性能的后續步驟的優先級非常有幫助。 ##### 執行錯誤分析 例如,為了找出模型為什么錯誤標記某些實例的原因,我們可以從開發集中獲取大約 100 個**錯誤標記的**示例并進行錯誤分析(手動逐個檢查)。 | 圖片 | 狗 | 貓 | 模糊 | 評價 | | --- | --- | --- | --- | --- | | 1 | ![](https://img.kancloud.cn/e3/4d/e34d5b299fab85351f7671a1d2291911_15x19.gif) | | | | | 2 | | | ![](https://img.kancloud.cn/e3/4d/e34d5b299fab85351f7671a1d2291911_15x19.gif) | | | 3 | | ![](https://img.kancloud.cn/e3/4d/e34d5b299fab85351f7671a1d2291911_15x19.gif) | ![](https://img.kancloud.cn/e3/4d/e34d5b299fab85351f7671a1d2291911_15x19.gif) | | | … | … | … | … | … | | 百分比 | 8% | 43% | 61% | | 通過手動檢查這些標簽錯誤的實例,我們可以估計錯誤的出處。 例如,在上述表格中,我們發現 61%的圖像模糊,因此在下一步中,我們可以集中精力改善模糊圖像的識別性能。 ##### 清除標簽錯誤的數據 有時,我們的數據集很嘈雜。 換句話說,數據集中存在一些不正確的標簽。 同樣,我們可以從開發/測試集中選取約 100 個實例,然后手動逐個檢查它們。 例如,當前開發/測試集上的模型錯誤為 10%。 然后,我們手動檢查從開發/測試集中隨機選擇的 100 個實例。 | 圖片 | 標簽不正確 | | --- | --- | | 1 個 | | | 2 | ![](https://img.kancloud.cn/e3/4d/e34d5b299fab85351f7671a1d2291911_15x19.gif) | | 3 | | | 4 | | | 5 | ![](https://img.kancloud.cn/e3/4d/e34d5b299fab85351f7671a1d2291911_15x19.gif) | | … | … | | 百分比 | 6% | 假設,最后我們發現 6%實例的標簽錯誤。 基于此,我們可以猜測由于標簽錯誤而導致的![](https://img.kancloud.cn/7a/93/7a939e7903510e7f22d01925ddb3fcce_134x15.gif)錯誤以及由于其他原因而導致的![](https://img.kancloud.cn/d0/ed/d0ed72dc33bffcb02f11ce24dda7320f_37x15.gif)錯誤。 因此,如果我們下一步專注于糾正標簽,那么可能不是一個好主意。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看