<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??一站式輕松地調用各大LLM模型接口,支持GPT4、智譜、豆包、星火、月之暗面及文生圖、文生視頻 廣告
                # DART booster [XGBoost](https://github.com/dmlc/xgboost) 主要是將大量帶有較小的 Learning rate (學習率) 的回歸樹做了混合。 在這種情況下,在構造前期增加樹的意義是非常顯著的,而在后期增加樹并不那么重要。 Rasmi 等人從深度神經網絡社區提出了一種新的方法來增加 boosted trees 的 dropout 技術,并且在某些情況下能得到更好的結果。 這是一種新型樹結構 booster `dart` 的使用指南。 ## 原始論文 Rashmi Korlakai Vinayak, Ran Gilad-Bachrach. “DART: Dropouts meet Multiple Additive Regression Trees.” [JMLR](http://www.jmlr.org/proceedings/papers/v38/korlakaivinayak15.pdf) ## 特性 * 直接 drop 樹來解決 over-fitting(過擬合)。 * Trivial trees 會被阻止(糾正微不足道的錯誤)。 由于訓練過程中的引入的隨機性,會有下面的幾點區別。 * 訓練可能會比 `gbtree` 慢,因為隨機地 dropout 會禁止使用 prediction buffer (預測緩存區)。 * 由于隨機性,提早停止可能會不穩定。 ## 它是如何運行的 * 在第 ![](https://img.kancloud.cn/e7/7e/e77e1905584d83cf5a3dc7079bef474f_16x8.gif) 輪訓練中,假設 ![](https://img.kancloud.cn/65/a9/65a9120364a862f3e7abfc1c106738bc_9x13.gif) 個樹被選定 drop 。 * 使用 ![](https://img.kancloud.cn/a2/14/a2147cea357c5da443b0f78276b39a10_85x40.jpg) 作為 drop 的樹的 leaf scores (葉子分數)和 ![](https://img.kancloud.cn/44/1d/441dfdf84e86091c96c5d24780b79409_82x20.jpg) 作為新樹的 leaf scores (葉子分數)。 * 下面是目標函數 : ![](https://img.kancloud.cn/9d/80/9d805dd3be3e4fb71398b1650cc2a5cf_363x53.jpg) * ![](https://img.kancloud.cn/26/61/2661c2f73236ce62700299f2115fb4d9_15x12.gif) 和 ![](https://img.kancloud.cn/52/f5/52f52d0fb3372f1881768b54d7f6be76_24x15.jpg) 是 overshooting (超調), 所以使用 scale factor (比例因子) ![](https://img.kancloud.cn/01/64/0164437968dc87b79baa7ec7398d5d9c_262x57.jpg) ## 參數 ### booster * `dart` 這個 booster 繼承了 `gbtree` ,所以 `dart` 還有 `eta`, `gamma`, `max_depth` 等等參數。 其他的參數如下所示。 ### sample_type sampling (采樣)算法的類型。 * `uniform`: (默認) drop 的樹被統一選擇。 * `weighted`: 根據 weights(權重)選擇 drop 的樹。 ### normalize_type normalization (歸一化)算法的類型。 * `tree`: (默認) 新樹與 drop 的樹的 weight(權重)相同。 ![](https://img.kancloud.cn/18/66/18660be3990b6d3ca1d0177cf847d387_127x24.gif) * `forest`: 新樹具有與 drop 的樹(森林)的權重的總和相同的權重。 ![](https://img.kancloud.cn/18/66/18660be3990b6d3ca1d0177cf847d387_127x24.gif) ### rate_drop dropout 比率. * 范圍: [0.0, 1.0] ### skip_drop 跳過 dropout 的概率。 * 如果一個 dropout 被跳過了,新的樹將會像 gbtree 一樣被添加。 * 范圍: [0.0, 1.0] ## 示例腳本 ``` import xgboost as xgb # read in data dtrain = xgb.DMatrix('demo/data/agaricus.txt.train') dtest = xgb.DMatrix('demo/data/agaricus.txt.test') # specify parameters via map param = {'booster': 'dart', 'max_depth': 5, 'learning_rate': 0.1, 'objective': 'binary:logistic', 'silent': True, 'sample_type': 'uniform', 'normalize_type': 'tree', 'rate_drop': 0.1, 'skip_drop': 0.5} num_round = 50 bst = xgb.train(param, dtrain, num_round) # make prediction # ntree_limit must not be 0 preds = bst.predict(dtest, ntree_limit=num_round) ```
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看