<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                # 1.14. 半監督學習 校驗者: [@STAN,廢柴0.1](https://github.com/apachecn/scikit-learn-doc-zh) 翻譯者: [@那伊抹微笑](https://github.com/apachecn/scikit-learn-doc-zh) [半監督學習](https://en.wikipedia.org/wiki/Semi-supervised_learning) 適用于在訓練數據上的一些樣本數據沒有貼上標簽的情況。 [`sklearn.semi_supervised`](classes.html#module-sklearn.semi_supervised "sklearn.semi_supervised") 中的半監督估計, 能夠利用這些附加的未標記數據來更好地捕獲底層數據分布的形狀,并將其更好地類推到新的樣本。 當我們有非常少量的已標簽化的點和大量的未標簽化的點時,這些算法表現均良好。 y 中含有未標記的數據 在使用 `fit` 方法訓練數據時, 將標識符與已標簽化的數據一起分配給未標簽化的點是尤其重要的. 實現該標記的方法是使用整數值 ![-1](https://box.kancloud.cn/cd7a061361dec1e3b142b30bbd1e8e60_21x13.jpg). ## 1.14.1. 標簽傳播 標簽傳播表示半監督圖推理算法的幾個變體。 該模型的一些特性如下:- 可用于分類和回歸任務 - Kernel methods to project data into alternate dimensional spaces scikit-learn 提供了兩種標簽傳播模型: [`LabelPropagation`](generated/sklearn.semi_supervised.LabelPropagation.html#sklearn.semi_supervised.LabelPropagation "sklearn.semi_supervised.LabelPropagation") 和 [`LabelSpreading`](generated/sklearn.semi_supervised.LabelSpreading.html#sklearn.semi_supervised.LabelSpreading "sklearn.semi_supervised.LabelSpreading") 。 兩者都通過在輸入的 dataset(數據集)中的所有 items(項)上構建 similarity graph (相似圖)來進行工作。 [![http://sklearn.apachecn.org/cn/0.19.0/_images/sphx_glr_plot_label_propagation_structure_0011.png](https://box.kancloud.cn/7d84c03bdd619423ad316ad50df3a61f_566x266.jpg)](../auto_examples/semi_supervised/plot_label_propagation_structure.html)**標簽傳播說明:** *未標簽化的觀察值結構與 class(類)結構一致, 因此可以將 class(類)標簽傳播到訓練集的未標簽化的觀察值* [`LabelPropagation`](generated/sklearn.semi_supervised.LabelPropagation.html#sklearn.semi_supervised.LabelPropagation "sklearn.semi_supervised.LabelPropagation") 和 [`LabelSpreading`](generated/sklearn.semi_supervised.LabelSpreading.html#sklearn.semi_supervised.LabelSpreading "sklearn.semi_supervised.LabelSpreading") 在對圖形的相似性矩陣, 以及對標簽分布的 clamping effect(夾持效應)的修改方面不太一樣。 Clamping 允許算法在一定程度上改變真實標簽化數據的權重。 該 [`LabelPropagation`](generated/sklearn.semi_supervised.LabelPropagation.html#sklearn.semi_supervised.LabelPropagation "sklearn.semi_supervised.LabelPropagation") 算法執行輸入標簽的 hard clamping, 這意味著 ![\alpha=0](https://box.kancloud.cn/6833b35b3fe9b6b9ea2251f3f7796de5_45x12.jpg) 。 這些 clamping factor 可以不是很嚴格的, 例如 ![\alpha=0.2](https://box.kancloud.cn/b48a77f3c8bce232dc0c9d4f423a72b5_59x12.jpg) , 這意味著我們將始終保留原始標簽分配的 80%, 但該算法可以將其分布的置信度改變在 20% 以內。 [`LabelPropagation`](generated/sklearn.semi_supervised.LabelPropagation.html#sklearn.semi_supervised.LabelPropagation "sklearn.semi_supervised.LabelPropagation") 使用原始相似性矩陣從未修改的數據來構建。 [`LabelSpreading`](generated/sklearn.semi_supervised.LabelSpreading.html#sklearn.semi_supervised.LabelSpreading "sklearn.semi_supervised.LabelSpreading") 最小化具有正則化屬性的損耗函數, 因此它通常更適用于噪聲數據。 該算法在原始圖形的修改版本上進行迭代, 并通過計算 normalized graph Laplacian matrix (歸一化圖拉普拉斯矩陣)來對邊緣的權重進行歸一化。 此過程也用于 [Spectral clustering](clustering.html#spectral-clustering) 。 標簽傳播模型有兩種內置的 kernel methods(核函數)。 kernel (核)的選擇會影響算法的可擴展性和性能。 以下是可用的: > - rbf (![\exp(-\gamma |x-y|^2), \gamma > 0](https://box.kancloud.cn/621084c75f90ac326a5cf9f80d829f0e_176x20.jpg)). ![\gamma](https://box.kancloud.cn/502b69cbaa2eaab1fc4bf35906e10418_10x12.jpg) 通過關鍵字 gamma 來指定。 > - knn (![1[x' \in kNN(x)]](https://box.kancloud.cn/f041308bbf46f2764b865c5d8493da60_119x19.jpg)). ![k](https://box.kancloud.cn/300675e73ace6bf4c352cfbb633f0199_9x13.jpg) 通過關鍵字 n\_neighbors 來指定。 RBF 核將產生一個完全連接的圖形, 它通過密集矩陣在內存中表示。 該矩陣可能非常大, 與算法的每次迭代執行全矩陣乘法計算的成本相結合可導致超長的運行時間。 在另一方面, KNN 核將產生更多的內存友好的稀疏矩陣, 這樣可以大幅度的減少運行時間。 例子 - [Decision boundary of label propagation versus SVM on the Iris dataset](../auto_examples/semi_supervised/plot_label_propagation_versus_svm_iris.html#sphx-glr-auto-examples-semi-supervised-plot-label-propagation-versus-svm-iris-py) - [Label Propagation learning a complex structure](../auto_examples/semi_supervised/plot_label_propagation_structure.html#sphx-glr-auto-examples-semi-supervised-plot-label-propagation-structure-py) - [Label Propagation digits active learning](../auto_examples/semi_supervised/plot_label_propagation_digits_active_learning.html#sphx-glr-auto-examples-semi-supervised-plot-label-propagation-digits-active-learning-py) 參考 \[1\] Yoshua Bengio, Olivier Delalleau, Nicolas Le Roux. In Semi-Supervised Learning (2006), pp. 193-216 \[2\] Olivier Delalleau, Yoshua Bengio, Nicolas Le Roux. Efficient Non-Parametric Function Induction in Semi-Supervised Learning. AISTAT 2005 [http://research.microsoft.com/en-us/people/nicolasl/efficient\_ssl.pdf](http://research.microsoft.com/en-us/people/nicolasl/efficient_ssl.pdf)
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看