<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                # 簡單循環神經網絡 這是一個帶循環的簡單神經網絡: ![](https://img.kancloud.cn/6c/cd/6ccdfdf3d073036df12a431546313814_280x146.png)RNN Network 在該圖中,神經網絡`N`接受輸入`x[t]`以產生輸出`y[t]`。由于循環,在下一步`t+1`,輸入`y[t]`和輸入`x[t+1]`產生輸出`y[t+1]`。在數學上,我們將其表示為以下等式: ![](https://img.kancloud.cn/02/13/0213a112b9db125c789b6de48176f976_2620x250.png) 當我們展開循環時,RNN 架構在時間步`t1`看起來如下: ![](https://img.kancloud.cn/81/d5/81d5ac11c8bc4b4bde6d467c71a04c4a_246x149.png) 隨著時間步長的發展,這個循環在時間步驟 5 展開如下: ![](https://img.kancloud.cn/57/67/57678316931ad2b0ce2f8c54d3cef8df_830x136.png) 在每個時間步驟,使用相同的學習函數`φ(·)`和相同的參數,`w`和`b`。 輸出`y`并不總是在每個時間步產生。相反,在每個時間步產生輸出`h`,并且對該輸出`h`應用另一個激活函數以產生輸出`y`。 RNN 的等式現在看起來像這樣: ![](https://img.kancloud.cn/68/c9/68c96ded17fab656e505dc7bf0972912_3010x250.png) ![](https://img.kancloud.cn/13/b4/13b4e64c26ade55217d23ab964bb2220_1870x250.png) 其中, * `w(hx)`是連接到隱藏層的`x`輸入的權重向量 * `w(hh)`是來自前一時間步的`h`的值的權重向量 * `w(yh)`是連接隱藏層和輸出層的層的權重向量 * 用于`h[t]`的函數通常是非線性函數,例如 tanh 或 ReLU 在 RNN 中,在每個時間步使用相同的參數`w(hx), w(hh), w(yh), b(h), b(y)`。這一事實大大減少了我們需要學習的基于序列模型的參數數量。 由此, RNN 在時間步`t5`如下展開,假設輸出`y`僅在時間步`t5`產生: ![](https://img.kancloud.cn/08/5a/085a42ea3df1f086d525f43e7078db5f_835x289.png) 簡單的 RNN 由 Elman 在 1990 年引入,因此它也被稱為 Elman 網絡。然而,簡單的 RNN 無法滿足我們今天的處理需求,因此我們將在下一節中了解 RNN 的變體。 閱讀 Elman 的原始研究論文,了解 RNN 架構的起源: ``` J. L. Elman, Finding Structure in Time, Cogn. Sci., vol. 14, no. 2, pp. 179–211, 1990. ```
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看