<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                # 模型預測精度與機器學習中的解釋 > 原文: [https://machinelearningmastery.com/model-prediction-versus-interpretation-in-machine-learning/](https://machinelearningmastery.com/model-prediction-versus-interpretation-in-machine-learning/) 在他們的書 [Applied Predictive Modeling](http://www.amazon.com/dp/1461468485?tag=inspiredalgor-20) 中,Kuhn和Johnson早期就模型預測準確性與模型解釋的權衡進行了評論。 對于給定的問題,清楚地了解哪個是優先級,準確性或可解釋性是至關重要的,以便可以明確而不是隱式地進行這種權衡。 在這篇文章中,您將發現并考慮這一重要的權衡。 [![model accuracy](https://img.kancloud.cn/40/b1/40b198e81b38a38dba5611c30ee11f47_640x480.jpg)](https://3qeqpr26caki16dnhd19sv6by6v-wpengine.netdna-ssl.com/wp-content/uploads/2014/07/model-accuracy.jpg) 模型準確性與可解釋性 攝影:Donald Hobern,保留一些權利 ## 準確性和可解釋性 模型表現根據其準確性來估計,以預測事件在看不見的數據上的發生。更準確的模型被視為更有價值的模型。 模型可解釋性提供了對輸入和輸出之間關系的深入了解。解釋模型可以回答關于獨立特征為什么預測依賴屬性的問題。 之所以出現這個問題,是因為隨著模型精度的提高,模型復雜性也會增加,但代價是可解釋性。 ## 模型復雜性 準確度越高的模型可能意味著公司有更多的機會,收益,時間或金錢。并且因此優化了預測精度。 精度的優化導致以附加模型參數(以及調整那些參數所需的資源)的形式進一步增加模型的復雜性。 > “_不幸的是,最強大的預測模型通常是最不易解釋的。_ “ 具有較少參數的模型更易于解釋。這很直觀。線性回歸模型具有每個輸入特征的系數和截距項。例如,您可以查看每個術語并了解它們對輸出的貢獻。轉向邏輯回歸在底層關系方面提供了更多的權力,這些關系可以以功能轉換為輸出為代價進行建模,現在也必須與系數一起理解。 決策樹(適度大小)可能是可以理解的,袋裝決策樹需要不同的視角來解釋預測事件發生的原因。進一步推動,將多個模型的優化混合組合成單個預測可能超出有意義或及時的解釋。 ## 準確度特朗普可解釋性 在他們的書中,庫恩和約翰遜以犧牲解釋為代價關注模型的準確性。 他們評論說: > “_只要復雜模型得到適當驗證,使用為解釋而不是預測表現而構建的模型可能是不合適的。_ “ 解釋是模型準確性的次要因素,它們的例子包括將電子郵件區分為垃圾郵件和非垃圾郵件,以及評估房屋作為問題的例子。醫學實例被觸及兩次,并且在兩種情況下都用于捍衛絕對需要和對可解釋性準確性的需求,只要模型得到適當的驗證。 我敢肯定,“但我驗證了我的模型”在模型做出導致生命損失的預測時,無法進行調查。然而,有人懷疑這是一個需要仔細考慮的重要問題。 ## 摘要 無論何時對問題進行建模,您都要決定模型精度和模型解釋之間的權衡。 您可以在選擇用于模擬問題的方法時使用這種權衡的知識,并在呈現結果時明確您的目標。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看