<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??碼云GVP開源項目 12k star Uniapp+ElementUI 功能強大 支持多語言、二開方便! 廣告
                # 參數化和非參數機器學習算法 > 原文: [https://machinelearningmastery.com/parametric-and-nonparametric-machine-learning-algorithms/](https://machinelearningmastery.com/parametric-and-nonparametric-machine-learning-algorithms/) 什么是參數化機器學習算法?它與非參數機器學習算法有什么不同? 在這篇文章中,您將發現參數和非參數機器學習算法之間的區別。 讓我們開始吧。 ![Parametric and Nonparametric Machine Learning Algorithms](img/b326598ff8e5e20a2984032cbe165115.jpg) 參數和非參數機器學習算法 照片由 [John M.](https://www.flickr.com/photos/luxxeon/8251183362) 拍攝,保留一些權利。 ## 學習功能 機器學習可以概括為學習將輸入變量(X)映射到輸出變量(Y)的函數(f)。 Y = f(x) 算法從訓練數據中學習該目標映射函數。 函數的形式是未知的,因此我們作為機器學習從業者的工作是評估不同的機器學習算法,并看看哪個更接近基礎函數。 不同的算法對函數的形式以及如何學習它們做出不同的假設或偏見。 ## 獲取免費算法思維導圖 ![Machine Learning Algorithms Mind Map](img/2ce1275c2a1cac30a9f4eea6edd42d61.jpg) 方便的機器學習算法思維導圖的樣本。 我已經創建了一個由類型組織的60多種算法的方便思維導圖。 下載,打印并使用它。 ## 參數化機器學習算法 假設可以大大簡化學習過程,但也可以限制可以學習的內容。將函數簡化為已知形式的算法稱為參數機器學習算法。 > 用一組固定大小的參數(與訓練樣本的數量無關)總結數據的學習模型稱為參數模型。無論您在參數模型中投放多少數據,它都不會改變它所需要的參數數量。 - [人工智能:現代方法](http://www.amazon.com/dp/0136042597?tag=inspiredalgor-20),第737頁 算法包括兩個步驟: 1. 選擇功能的表單。 2. 從訓練數據中學習函數的系數。 映射函數易于理解的函數形式是一條線,如線性回歸中所使用的那樣: b0 + b1 * x1 + b2 * x2 = 0 其中b0,b1和b2是控制截距和斜率的線的系數,x1和x2是兩個輸入變量。 假設一條線的功能形式大大簡化了學習過程。現在,我們需要做的就是估計線方程的系數,我們有一個問題的預測模型。 假設的函數形式通常是輸入變量的線性組合,因此參數機器學習算法通常也稱為“_線性機器學習算法_”。 問題是,實際的未知基礎函數可能不是像線一樣的線性函數。它可能幾乎是一條線,需要對輸入數據進行一些小的轉換才能正常工作。或者它可能就像一條線,在這種情況下,假設是錯誤的,并且該方法將產生不良結果。 參數機器學習算法的更多示例包括: * Logistic回歸 * 線性判別分析 * 感知 * 樸素貝葉斯 * 簡單神經網絡 參數化機器學習算法的好處: * **更簡單**:這些方法更容易理解和解釋結果。 * **速度**:參數模型可以非常快速地從數據中學習。 * **較少的數據**:它們不需要那么多的訓練數據,即使數據的擬合不完美也能很好地工作。 參數化機器學習算法的局限性: * **約束**:通過選擇函數形式,這些方法高度受限于指定的形式。 * **有限復雜度**:這些方法更適合于更簡單的問題。 * **不合適**:實際上,這些方法不太可能與底層映射函數匹配。 ## 非參數機器學習算法 不對映射函數的形式做出強有力假設的算法稱為非參數機器學習算法。通過不做出假設,他們可以自由地從訓練數據中學習任何功能形式。 > 如果您擁有大量數據且沒有先驗知識,并且您不想過于擔心選擇正確的功能,那么非參數方法就很好。 - [人工智能:現代方法](http://www.amazon.com/dp/0136042597?tag=inspiredalgor-20),第757頁 非參數方法尋求最佳地擬合訓練數據以構建映射函數,同時保持一些推廣到看不見的數據的能力。因此,它們能夠適合大量的功能形式。 一個易于理解的非參數模型是k-最近鄰算法,它基于新數據實例的k個最相似的訓練模式進行預測。除了關閉的模式可能具有類似的輸出變量之外,該方法不假設任何關于映射函數的形式。 流行的非參數機器學習算法的更多示例是: * k-最近鄰居 * 決策樹如CART和C4.5 * 支持向量機 非參數機器學習算法的好處: * **靈活性**:能夠裝入大量功能形式。 * **權力**:沒有關于基礎功能的假設(或弱假設)。 * **表現**:可以產生更高表現的預測模型。 非參數機器學習算法的局限性: * **更多數據**:需要更多訓練數據來估計映射函數。 * **較慢**:訓練要慢很多,因為它們通常有更多的訓練參數。 * **過度擬合**:過度擬合訓練數據的風險更大,并且更難解釋為什么要進行特定預測。 ## 進一步閱讀 如果您希望了解有關參數和非參數機器學習算法之間差異的更多信息,本節列出了一些資源。 ### 圖書 * [統計學習簡介:在R](http://www.amazon.com/dp/1461471370?tag=inspiredalgor-20) 中的應用,第2章 * [人工智能:現代方法](http://www.amazon.com/dp/0136042597?tag=inspiredalgor-20),第18章 ### 帖子 * [在機器學習中使用非參數方法有什么好處? Quora上的](https://www.quora.com/What-are-the-advantages-of-using-non-parametric-methods-in-machine-learning) * [非參數方法在機器學習中有哪些缺點? Quora上的](https://www.quora.com/What-are-the-disadvantages-of-non-parametric-methods-in-machine-learning) * 維基百科上的[非參數統計](https://en.wikipedia.org/wiki/Nonparametric_statistics) * 維基百科上的[參數統計](https://en.wikipedia.org/wiki/Parametric_statistics) * 堆棧交換上的[參數與非參數](http://stats.stackexchange.com/questions/50141/parametric-vs-nonparametric) ## 摘要 在這篇文章中,您已經發現了參數和非參數機器學習算法之間的區別。 您了解到參數化方法對輸入變量到輸出變量的映射做出了很大的假設,反過來訓練速度更快,需要更少的數據但可能不那么強大。 您還了解到非參數方法對目標函數做出很少或沒有假設,反過來又需要更多數據,訓練速度較慢,模型復雜度較高,但可以產生更強大的模型。 如果您對參數或非參數機器學習算法或本文有任何疑問,請發表評論,我會盡力回答。 **更新**:我原本在錯誤的部分列出了一些算法,如神經網絡和樸素的貝葉斯,這讓事情變得混亂。全部修復了。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看