<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                合規國際互聯網加速 OSASE為企業客戶提供高速穩定SD-WAN國際加速解決方案。 廣告
                ## 反向傳播方向更新w和b的值: 反向傳播的目的:求損失函數w和b的偏導數,其實也就是求損失函數在w和b方向上的梯度分量,然后用在梯度方向上更新w和b最后是損失函數降到最小。是不是很繞口,你也可以這樣理解其實反向傳播就是去更新參數的一種方法。二話不說先上例子一看就明白: > 此例子出自:https://zhuanlan.zhihu.com/p/23270674 > 注意:每一個小圓圈相當于上面圖像中的一個灰度值 來簡單告訴讀者推導過程吧(其實就是鏈式)! ![](https://box.kancloud.cn/f18fe4a2a283eaa202cc7ded73135f90_323x254.png) 先初始化權重和偏置量,得到如下效果: ![](https://box.kancloud.cn/95e2376d0ed1fe0f494ca05501679f8f_339x253.png) **因為計算向后傳播必須現有向前傳播所以我們先來計算向前傳播:** 1. 先計算h1 的輸入:**net_h1 =w1 \* i1 + w2 \* i2 +b1 * 1**,代入數據可得:net_h1 =0.15\*0.05 +0.2\* 0.1+0.35\* 1=0.3775; 2. 然后利用logistic函數計算得h1 的輸出:out_h1=1 / {1+e^-net_h1 } =1/{1+e^-0.3775 }=0.593269992; 3. 用同樣的方法得out_h2=0.596884378; 4. 對輸出層神經元重復這個過程,使用隱藏層神經元的輸出作為輸入。這樣就能給出o_{1} 的輸出: ![](https://box.kancloud.cn/d489c9ee07b9fe972699bf0f8e826c4d_753x246.png) 5. 開始統計所有的誤差: ![](https://box.kancloud.cn/109481c1ab6620c8ee57c98d16dfce04_641x315.png) **計算反向傳播**: 1. 輸出層 對于w5,想知道其改變對總誤差有多少影響,于是得:dEtotal / dw5![](https://box.kancloud.cn/9795f7b91282c25bef27d1756daf22a3_714x458.png)![](https://box.kancloud.cn/aef1b7511f0c18dcaea15bac46c62ac0_733x698.png)![](https://box.kancloud.cn/0b2eba3b231bb887f7c7af2bded98da9_885x419.png) 2. 隱藏層![](https://box.kancloud.cn/e87883cd87adea8480124cc661c3ed4a_835x771.png)![](https://box.kancloud.cn/06b337732a4129ff40a87e158f6bf2f9_868x744.png)![](https://box.kancloud.cn/d90a7242e3cb7bf6ad77c6742dd0a90b_859x770.png)![](https://box.kancloud.cn/6d85d32c3d96841699ad8f3b03165d37_910x585.png) **最后,更新了所有的權重! 當最初前饋傳播時輸入為0.05和0.1,網絡上的誤差是0.298371109。 在第一輪反向傳播之后,總誤差現在下降到0.291027924。 它可能看起來不太多,但是在重復此過程10,000次之后。例如,錯誤傾斜到0.000035085。 在這一點上,當前饋輸入為0.05和0.1時,兩個輸出神經元產生0.015912196(相對于目標為0.01)和0.984065734(相對于目標為0.99)。很接近了O(∩_∩)O~~**
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看