<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??碼云GVP開源項目 12k star Uniapp+ElementUI 功能強大 支持多語言、二開方便! 廣告
                # 機器學習中向量規范的溫和介紹 > 原文: [https://machinelearningmastery.com/vector-norms-machine-learning/](https://machinelearningmastery.com/vector-norms-machine-learning/) 計算向量的長度或幅度通常需要直接作為機器學習中的正則化方法,或作為更寬的向量或矩陣運算的一部分。 在本教程中,您將發現計算向量長度或幅度的不同方法,稱為向量范數。 完成本教程后,您將了解: * L1 范數,計算為向量絕對值之和。 * L2 范數,計算為平方向量值之和的平方根。 * 最大范數,計算為最大向量值。 讓我們開始吧。 * **更新 Mar / 2018** :修正了最大范數方程中的拼寫錯誤。 * **更新 Sept / 2018** :修復了與定義的向量大小相關的拼寫錯誤。 ![Gentle Introduction to Vector Norms in Machine Learning](img/e4a4a58243578310240b1d079ff99795.jpg) 機器學習中向量規范的溫和介紹 [Cosimo](https://www.flickr.com/photos/22932473@N04/4902494396/) 的照片,保留一些權利。 ## 教程概述 本教程分為 4 個部分;他們是: 1. 向量規范 2. 向量 L1 規范 3. 向量 L2 規范 4. 向量最大規范 ## 向量規范 通常需要直接或作為更寬向量或向量矩陣運算的一部分來計算向量的大小或長度。 向量的長度稱為向量范數或向量的幅度。 > 向量的長度是一個非負數,用于描述空間中向量的范圍,有時也稱為向量的大小或范數。 - 第 112 頁,[無線性代數廢話指南](http://amzn.to/2k76D4C),2017 年 除了所有零值的向量之外,向量的長度始終是正數。它是使用一些度量來計算的,該度量總結了向量距向量空間原點的距離。例如,具有 3 個元素的向量的向量空間的原點是(0,0,0)。 符號用于表示更廣泛計算中的向量范數,并且向量范數計算的類型幾乎總是具有其自己的唯一符號。 我們將看一下機器學習中使用的一些常見的向量范數計算。 ## 向量 L1 規范 可以使用 L1 范數計算向量的長度,其中 1 是 L 的上標,例如, L ^ 1。 向量的 L1 范數的符號是??|| v || 1,其中 1 是下標。因此,這個長度有時被稱為出租車標準或曼哈頓標準。 ``` l1(v) = ||v||1 ``` L1 范數被計算為絕對向量值之和,其中標量的絕對值使用符號| a1 |。實際上,范數是從向量空間的原點計算曼哈頓距離。 ``` ||v||1 = |a1| + |a2| + |a3| ``` 可以使用帶有參數的 norm()函數在 NumPy 中計算向量的 L1 范數,以指定范數順序,在本例中為 1。 ``` # l1 norm of a vector from numpy import array from numpy.linalg import norm a = array([1, 2, 3]) print(a) l1 = norm(a, 1) print(l1) ``` 首先,定義 1×3 向量,然后計算向量的 L1 范數。 首先運行示例打印定義的向量,然后打印向量的 L1 范數。 ``` [1 2 3] 6.0 ``` 當將機器學習算法擬合為正則化方法時,經常使用 L1 范數,例如,一種保持模型系數較小的方法,反過來,模型不那么復雜。 ## 向量 L2 規范 可以使用 L2 范數計算向量的長度,其中 2 是 L 的上標,例如, L ^ 2。 向量的 L2 范數的符號是??|| v || 2,其中 2 是下標。 ``` l2(v) = ||v||2 ``` L2 范數計算向量坐標距向量空間原點的距離。因此,它也被稱為歐幾里德范數,因為它被計算為距離原點的歐幾里德距離。結果是正距離值。 L2 范數被計算為平方向量值之和的平方根。 ``` ||v||2 = sqrt(a1^2 + a2^2 + a3^2) ``` 可以使用帶有默認參數的 norm()函數在 NumPy 中計算向量的 L2 范數。 ``` # l2 norm of a vector from numpy import array from numpy.linalg import norm a = array([1, 2, 3]) print(a) l2 = norm(a) print(l2) ``` 首先,定義 1×3 向量,然后計算向量的 L2 范數。 首先運行示例打印定義的向量,然后打印向量的 L2 范數。 ``` [1 2 3] 3.74165738677 ``` 與 L1 范數一樣,L2 范數經常在將機器學習算法擬合為正則化方法時使用,例如,一種保持模型系數較小的方法,反過來,模型不那么復雜。 到目前為止,L2 規范在機器學習中比其他向量規范更常用。 ## 向量最大規范 向量的長度可以使用最大范數來計算,也稱為最大范數。 向量的最大范數被稱為 L ^ inf,其中 inf 是上標并且可以用無窮大符號表示。 max norm 的表示法是|| x || inf,其中 inf 是下標。 ``` maxnorm(v) = ||v||inf ``` 最大范數計算為返回向量的最大值,因此返回名稱。 ``` ||v||inf = max(|a1|, |a2|, |a3|) ``` 可以使用 norm()函數在 NumPy 中計算向量的最大范數,并將 order 參數設置為 inf。 ``` # max norm of a vector from numpy import inf from numpy import array from numpy.linalg import norm a = array([1, 2, 3]) print(a) maxnorm = norm(a, inf) print(maxnorm) ``` 首先,定義 1×3 向量,然后計算向量的最大范數。 首先運行示例打印定義的向量,然后打印向量的最大范數。 ``` [1 2 3] 3.0 ``` Max norm 也被用作機器學習中的正則化,例如神經網絡權重,稱為最大范數正則化。 ## 擴展 本節列出了一些擴展您可能希望探索的教程的想法。 * 使用您自己的數據使用每個操作創建 5 個示例。 * 為定義為列表列表的矩陣手動實現每個矩陣操作。 * 搜索機器學習論文并找到每個正在使用的操作的示例。 如果你探索任何這些擴展,我很想知道。 ## 進一步閱讀 如果您希望深入了解,本節將提供有關該主題的更多資源。 ### 圖書 * [線性代數](http://amzn.to/2j2J0g4)簡介,2016 年。 * 第 2 章,線性代數,[深度學習](http://amzn.to/2j4oKuP),2016。 ### API * [numpy.linalg.norm()API](https://docs.scipy.org/doc/numpy-1.13.0/reference/generated/numpy.linalg.norm.html) ### 用品 * 維基百科上的 [Norm(數學)](https://en.wikipedia.org/wiki/Norm_(mathematics)) ## 摘要 在本教程中,您發現了計算向量長度或大小的不同方法,稱為向量范數。 具體來說,你學到了: * L1 范數,計算為向量絕對值之和。 * L2 范數,計算為平方向量值之和的平方根。 * 最大范數,計算為最大向量值。 你有任何問題嗎? 在下面的評論中提出您的問題,我會盡力回答。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看