<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??碼云GVP開源項目 12k star Uniapp+ElementUI 功能強大 支持多語言、二開方便! 廣告
                # 如何通過深度學習快速獲得時間序列預測的結果 > 原文: [https://machinelearningmastery.com/get-good-results-fast-deep-learning-time-series-forecasting/](https://machinelearningmastery.com/get-good-results-fast-deep-learning-time-series-forecasting/) #### 3 您的預測建模問題設計實驗和管理復雜性的策略。 新的時間序列預測項目很難開始。 鑒于多年的數據,適合深度學習模型可能需要數天或數周。你是如何開始的? 對于一些從業者來說,這可能會導致項目一開始就癱瘓甚至拖延。在其他情況下,它可能導致陷入只嘗試和使用以前工作的陷阱,而不是真正探索問題。 在這篇文章中,您將發現在將多層神經網絡和長短期記憶(LSTM)循環神經網絡模型等深度學習方法應用于時間序列預測問題時可以使用的實用策略。 這篇文章中的策略并非萬無一失,但是我在處理大型時間序列數據集時發現了很難學到的經驗法則。 閱讀這篇文章后,你會知道: * 一種平衡思想探索和利用對你的問題起作用的策略。 * 一種快速學習和利用數據擴展思路的策略,以確認它們能夠解決更廣泛的問題。 * 一種策略,可以解決問題框架的復雜性以及所選深度學習模型的復雜性。 讓我們開始吧。 ## 1.勘探和開發戰略 在搜索能夠很好地解決問題的模型時,平衡探索和利用非常重要。 我建議兩種不同的方法應該串聯使用: * 診斷。 * 網格搜索。 ### 診斷 診斷涉及使用一組超參數執行運行,并在每個訓練時期的訓練和測試數據集上生成模型技能的痕跡。 這些圖提供了對過度學習或學習不足以及特定超參數集的潛力的深入了解。 它們是健全性檢查或種子,用于深入研究可以探索的參數范圍,并防止您浪費時間,使其具有比合理要求更多的時代,或者太大的網絡。 以下是來自模型運行的診斷圖的示例,其顯示了訓練和驗證 RMSE。 ![Example Diagnostic Line Plot Comparing Train and Test Loss Over Training Epochs](https://img.kancloud.cn/60/89/608922213766144d96394c286c35112f_640x480.jpg) 示例診斷線圖比較訓練時期的訓練和測試損失 ### 網格搜索 基于對診斷結果的學習,網格搜索提供了針對特定模型超參數的一組值的掃描,例如神經元的數量,批量大小等。 它們允許您以分段方式系統地撥入特定的超參數值。 ### 交織方法 我建議交錯診斷運行和網格搜索運行。 您可以通過診斷檢查您的假設,并通過網格搜索結果從有前途的想法中獲得最佳效果。 我強烈建議你測試一下你對模型的每一個假設。這包括簡單的事情,如數據縮放,權重初始化,甚至激活函數,損失函數等的選擇。 與下面的數據處理策略一起使用,您將快速構建一個有關預測問題的有效和無效的映射。 下面是模型批量大小的網格搜索結果示例,顯示每個實驗重復 30 次的結果分布。 ![Example Box and Whisker Plots Comparing a Model Skill For Different Model Parameter Values](https://img.kancloud.cn/43/69/4369c35253ecba9c4a1a338f61decb6c_640x480.jpg) 示例框和晶須圖比較不同模型參數值的模型技巧 ## 2.處理數據大小的策略 我建議首先使用較小的數據樣本來測試想法并慢慢增加數據量,以查看在小樣本上學到的東西是否包含更大的樣本。 例如,如果您有多年的每小時測量,則可以按如下方式拆分數據: * 1 周樣本。 * 1 個月的樣本。 * 1 年樣本。 * 所有數據。 另一種方法是,您可以在整個數據集中擬合和探索模型,其中每個模型可能需要數天才能適應,這反過來意味著您的學習速度會大幅降低。 這種方法的好處是,您可以在幾分鐘內快速測試多次重復(例如統計上顯著)的想法,然后將這些有前途的想法擴展到越來越多的數據。 一般來說,有了良好框架的監督學習問題,學習的確會隨著數據而擴展。然而,存在這樣的風險:在不同的數據規模上問題存在很大差異,并且結果不成立。您可以使用更簡單的模型來檢查這一點,這些模型可以更快地進行訓練,并在早期就弄清楚這是否是一個問題。 最后,當您將模型擴展到更多數據時,您還可以減少實驗的重復次數,以幫助加快結果的周轉時間。 ## 3.模型復雜性策略 與數據大小一樣,模型的復雜性是另一個必須管理并可以擴展的問題。 我們可以從監督學習問題的框架和模型本身來看待這一點。 ### 模型框架復雜性 例如,我們可以假設包括外生變量的時間序列預測問題(例如,多輸入序列或多變量輸入)。 我們可以擴展問題的復雜性,看看在一個復雜程度(例如,單變量輸入)中工作的是復雜的復雜程度(多變量輸入)。 例如,您可以通過以下方式處理模型復雜性: * 單變量輸入,單步輸出。 * 單變量輸入,多步輸出。 * 多變量輸入,單步輸出。 * 多變量輸入,多步輸出。 這也可以擴展到多變量預測。 在每個步驟中,目標是證明增加復雜性可以提升模型的技能。 例如: * 神經網絡模型能否勝過持久性預測模型? * 神經網絡模型能否勝過線性預測模型? * 外生輸入變量可以通過單變量輸入提升模型的技能嗎? * 直接多步驟預測能否比遞歸單步預測更具技巧性? 如果這些問題無法克服或輕易克服,它可以幫助您快速解決問題框架和所選模型。 ### 模型能力的復雜性 當使用更復雜的神經網絡模型(如 LSTM)時,可以使用相同的方法。 例如: * 將問題建模為輸入到輸出的映射(例如,沒有內部狀態或 BPTT)。 * 將問題建模為僅在輸入序列中具有內部狀態的映射問題(無 BPTT)。 * 將問題建模為具有內部狀態和 BPTT 的映射問題。 在每個步驟中,增加的模型復雜性必須證明技能處于或高于先前的復雜程度。換句話說,增加的模型復雜性必須通過模型技能或能力的相應增加來證明。 例如: * LSTM 能否勝過帶窗口的 MLP? * 具有內部狀態且沒有 BPTT 的 LSTM 能否優于 LSTM,其中狀態在每個樣本后重置? * BPTT 超過輸入序列的 LSTM 能否優于每個時間步后更新的 LSTM 嗎? ### 進一步閱讀 如果您要深入了解,本節將提供有關該主題的更多資源。 * [如何通過時間序列預測項目](http://machinelearningmastery.com/work-time-series-forecast-project/) * [如何用 Keras 調整 LSTM 超參數進行時間序列預測](http://machinelearningmastery.com/tune-lstm-hyperparameters-keras-time-series-forecasting/) * [如何提高深度學習效能](http://machinelearningmastery.com/improve-deep-learning-performance/) ## 摘要 在本教程中,您了解了如何克服在深度學習項目開始時可能出現的癱瘓。 具體來說,您了解了如何系統地分解可用于快速獲得結果的復雜性和策略: * 一種平衡思想探索和利用對你的問題起作用的策略。 * 一種快速學習和利用數據擴展思路的策略,以確認它們能夠解決更廣泛的問題。 * 一種策略,可以解決問題框架的復雜性以及所選深度學習模型的復雜性。 你有任何問題嗎? 在下面的評論中提出您的問題,我會盡力回答。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看