<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                # 4.7. 成對的矩陣, 類別和核函數 校驗者: [@FontTian](https://github.com/FontTian) [@numpy](https://github.com/apachecn/scikit-learn-doc-zh) 翻譯者: [@程威](https://github.com/apachecn/scikit-learn-doc-zh) The [`sklearn.metrics.pairwise`](classes.html#module-sklearn.metrics.pairwise "sklearn.metrics.pairwise") 子模塊實現了用于評估成對距離或樣本集合之間的聯系的實用程序。 本模塊同時包含距離度量和核函數,對于這兩者這里提供一個簡短的總結。 距離度量是形如 `d(a, b)` 例如 `d(a, b) < d(a, c)`如果對象 `a` 和 `b` 被認為 “更加相似” 相比于 `a`和 `c`. 兩個完全相同的目標的距離是零。最廣泛使用的例子就是歐幾里得距離。 為了保證是 ‘真實的’ 度量, 其必須滿足以下條件: > 1. 對于所有的 a 和 b,d(a, b) >= 0 > 2. 正定性:當且僅當 a = b時,d(a, b) == 0 > 3. 對稱性:d(a, b) == d(b, a) > 4. 三角不等式:d(a, c) <= d(a, b) + d(b, c) 核函數是相似度的標準. 如果對象 `a` 和 `b` 被認為 “更加相似” 相比對象 `a` 和 `c`,那么 `s(a, b) > s(a, c)`. 核函數必須是半正定性的. 存在許多種方法將距離度量轉換為相似度標準,例如核函數。 假定 `D` 是距離, and `S` 是核函數: > 1. `S = np.exp(-D * gamma)`, 其中 `gamma` 的一種選擇是 `1 / num_features` > 2. `S = 1. / (D / np.max(D))` ## 4.7.1. 余弦相似度 [`cosine_similarity`](generated/sklearn.metrics.pairwise.cosine_similarity.html#sklearn.metrics.pairwise.cosine_similarity "sklearn.metrics.pairwise.cosine_similarity") 計算L2正則化的向量的點積. 也就是說, if ![x](https://box.kancloud.cn/8b09310f09e864e3a4f6d92b559afe29_10x8.jpg) 和 ![y](https://box.kancloud.cn/0255a09d3dccb9843dcf063bbeec303f_9x12.jpg) 都是行向量,, 它們的余弦相似度 ![k](https://box.kancloud.cn/300675e73ace6bf4c352cfbb633f0199_9x13.jpg) 定義為: ![k(x, y) = \frac{x y^\top}{\|x\| \|y\|}](https://box.kancloud.cn/bff758312e7d686f4c4f9ce2b4429ba9_133x45.jpg) 這被稱為余弦相似度, 因為歐幾里得(L2) 正則化將向量投影到單元球面內,那么它們的點積就是被向量表示的點之間的角度。 這種核函數對于計算以tf-idf向量表示的文檔之間的相似度是一個通常的選擇. [`cosine_similarity`](generated/sklearn.metrics.pairwise.cosine_similarity.html#sklearn.metrics.pairwise.cosine_similarity "sklearn.metrics.pairwise.cosine_similarity") 接受 `scipy.sparse` 矩陣. (注意到 `sklearn.feature_extraction.text`中的tf-idf函數能計算歸一化的向量,在這種情況下 [`cosine_similarity`](generated/sklearn.metrics.pairwise.cosine_similarity.html#sklearn.metrics.pairwise.cosine_similarity "sklearn.metrics.pairwise.cosine_similarity")等同于 [`linear_kernel`](generated/sklearn.metrics.pairwise.linear_kernel.html#sklearn.metrics.pairwise.linear_kernel "sklearn.metrics.pairwise.linear_kernel"), 只是慢一點而已.) References: - C.D. Manning, P. Raghavan and H. Schütze (2008). Introduction to Information Retrieval. Cambridge University Press. <http://nlp.stanford.edu/IR-book/html/htmledition/the-vector-space-model-for-scoring-1.html> ## 4.7.2. 線性核函數 函數 [`linear_kernel`](generated/sklearn.metrics.pairwise.linear_kernel.html#sklearn.metrics.pairwise.linear_kernel "sklearn.metrics.pairwise.linear_kernel") 是計算線性核函數, 也就是一種在 `degree=1` 和 `coef0=0` (同質化) 情況下的 [`polynomial_kernel`](generated/sklearn.metrics.pairwise.polynomial_kernel.html#sklearn.metrics.pairwise.polynomial_kernel "sklearn.metrics.pairwise.polynomial_kernel") 的特殊形式. 如果 `x` 和 `y` 是列向量, 它們的線性核函數是: ![k(x, y) = x^\top y](https://box.kancloud.cn/8e9d69b0299741ff66426aaea61bbff3_105x21.jpg) ## 4.7.3. 多項式核函數 函數 [`polynomial_kernel`](generated/sklearn.metrics.pairwise.polynomial_kernel.html#sklearn.metrics.pairwise.polynomial_kernel "sklearn.metrics.pairwise.polynomial_kernel") 計算兩個向量的d次方的多項式核函數. 多項式核函數代表著兩個向量之間的相似度.概念上來說,多項式核函數不僅考慮相同維度還考慮跨維度的向量的相似度。當被用在機器學習中的時候,這可以原來代表著特征之間的 相互作用。多項式函數定義為: ![k(x, y) = (\gamma x^\top y +c_0)^d](https://box.kancloud.cn/386e51a80d0e10f7402ddc7d1a1f9e7a_173x21.jpg) 其中: > - `x`, `y` 是輸入向量 > - `d` 核函數維度 如果 ![c_0 = 0](https://box.kancloud.cn/43e47a01b6cb21eaea6aeb8214fbc43d_48x15.jpg) 那么核函數就被定義為同質化的. ## 4.7.4. Sigmoid 核函數 函數 [`sigmoid_kernel`](generated/sklearn.metrics.pairwise.sigmoid_kernel.html#sklearn.metrics.pairwise.sigmoid_kernel "sklearn.metrics.pairwise.sigmoid_kernel") 計算兩個向量之間的S型核函數. S型核函數也被稱為雙曲切線或者 多層感知機(因為在神經網絡領域,它經常被當做激活函數). S型核函數定義為: ![k(x, y) = \tanh( \gamma x^\top y + c_0)](https://box.kancloud.cn/161a1cacebd2ec0ffe9231da02a835e7_201x21.jpg) where: > - `x`, `y` 是輸入向量 > - ![\gamma](https://box.kancloud.cn/502b69cbaa2eaab1fc4bf35906e10418_10x12.jpg) 是斜度 > - ![c_0](https://box.kancloud.cn/7dae2ff0f64032ef341a95a2d53cbd8e_14x11.jpg) 是截距 ## 4.7.5. RBF 核函數 函數 [`rbf_kernel`](generated/sklearn.metrics.pairwise.rbf_kernel.html#sklearn.metrics.pairwise.rbf_kernel "sklearn.metrics.pairwise.rbf_kernel") 計算計算兩個向量之間的徑向基函數核 (RBF) 。 其定義為: ![k(x, y) = \exp( -\gamma \| x-y \|^2)](https://box.kancloud.cn/a382777d0b7ae9d57e58303808a9e6cf_206x21.jpg) 其中 `x` 和 `y` 是輸入向量. 如果 ![\gamma = \sigma^{-2}](https://box.kancloud.cn/f0c38c45c8f2b49f3a415552682a4f30_61x19.jpg)核函數就變成方差為 ![\sigma^2](https://box.kancloud.cn/08855da6e80bbdef8f4c044b50529936_17x15.jpg) 的高斯核函數. ## 4.7.6. 拉普拉斯核函數 函數 [`laplacian_kernel`](generated/sklearn.metrics.pairwise.laplacian_kernel.html#sklearn.metrics.pairwise.laplacian_kernel "sklearn.metrics.pairwise.laplacian_kernel") 是一種徑向基函數核的變體,定義為: ![k(x, y) = \exp( -\gamma \| x-y \|_1)](https://box.kancloud.cn/94a0283ee7340a3f01bc75ece6f06666_206x19.jpg) 其中 `x` 和 `y` 是輸入向量 并且 ![\|x-y\|_1](https://box.kancloud.cn/674e433bcbfa82fa7ab019c277f4c091_64x19.jpg) 是輸入向量之間的曼哈頓距離. 已被證明在機器學習中運用到無噪聲數據中是有用的. 可見例如 [Machine learning for quantum mechanics in a nutshell](http://onlinelibrary.wiley.com/doi/10.1002/qua.24954/abstract/). ## 4.7.7. 卡方核函數 在計算機視覺應用中訓練非線性支持向量機時,卡方核函數是一種非常流行的選擇.它能以 [`chi2_kernel`](generated/sklearn.metrics.pairwise.chi2_kernel.html#sklearn.metrics.pairwise.chi2_kernel "sklearn.metrics.pairwise.chi2_kernel") 計算然后將參數 [``](#id7)kernel=”precomputed”[``](#id9)傳遞到[`sklearn.svm.SVC`](generated/sklearn.svm.SVC.html#sklearn.svm.SVC "sklearn.svm.SVC") : ``` >>> from sklearn.svm import SVC >>> from sklearn.metrics.pairwise import chi2_kernel >>> X = [[0, 1], [1, 0], [.2, .8], [.7, .3]] >>> y = [0, 1, 0, 1] >>> K = chi2_kernel(X, gamma=.5) >>> K array([[ 1. , 0.36..., 0.89..., 0.58...], [ 0.36..., 1. , 0.51..., 0.83...], [ 0.89..., 0.51..., 1. , 0.77... ], [ 0.58..., 0.83..., 0.77... , 1. ]]) ``` ``` >>> svm = SVC(kernel='precomputed').fit(K, y) >>> svm.predict(K) array([0, 1, 0, 1]) ``` 也可以直接使用 `kernel` 變量: ``` >>> svm = SVC(kernel=chi2_kernel).fit(X, y) >>> svm.predict(X) array([0, 1, 0, 1]) ``` 卡方核函數定義為 ![k(x, y) = \exp \left (-\gamma \sum_i \frac{(x[i] - y[i]) ^ 2}{x[i] + y[i]} \right )](https://box.kancloud.cn/c2d76f4ffd47c5da52a70aa4e3d4757d_286x55.jpg) 數據假定為非負的,并且已經以L1正則化。 歸一化隨著與卡方平方距離的連接而被合理化,其是離散概率分布之間的距離。 卡方核函數最常用于可視化詞匯的矩形圖。 參考: - Zhang, J. and Marszalek, M. and Lazebnik, S. and Schmid, C. Local features and kernels for classification of texture and object categories: A comprehensive study International Journal of Computer Vision 2007 <http://research.microsoft.com/en-us/um/people/manik/projects/trade-off/papers/ZhangIJCV06.pdf>
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看