<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                # 用于機器學習的線性代數備忘單 > 原文: [https://machinelearningmastery.com/linear-algebra-cheat-sheet-for-machine-learning/](https://machinelearningmastery.com/linear-algebra-cheat-sheet-for-machine-learning/) ### NumPy 中用于機器學習的所有線性代數運算 。 名為 NumPy 的 Python 數值計算庫提供了許多線性代數函數,可用作機器學習從業者。 在本教程中,您將發現使用向量和矩陣的關鍵函數,您可能會發現這些函數可用作機器學習從業者。 這是一個備忘單,所有示例都很簡短,假設您熟悉正在執行的操作。 您可能希望為此頁面添加書簽以供將來參考。 ![Linear Algebra Cheat Sheet for Machine Learning](img/0fdbdc2f5daee66450ef948387f7c772.jpg) 用于機器學習的線性代數備忘單 照片由 [Christoph Landers](https://www.flickr.com/photos/bewegtbildgestalter/1274219020/) 拍攝,保留一些權利。 ## 概觀 本教程分為 7 個部分;他們是: 1. 數組 2. 向量 3. 矩陣 4. 矩陣的類型 5. 矩陣運算 6. 矩陣分解 7. 統計 ## 1.陣列 有很多方法可以創建 NumPy 數組。 ### 排列 ``` from numpy import array A = array([[1,2,3],[1,2,3],[1,2,3]]) ``` ### 空 ``` from numpy import empty A = empty([3,3]) ``` ### 零 ``` from numpy import zeros A = zeros([3,5]) ``` ### 那些 ``` from numpy import ones A = ones([5, 5]) ``` ## 2.向量 向量是標量的列表或列。 ### 向量加法 ``` c = a + b ``` ### 向量減法 ``` c = a - b ``` ### 向量乘法 ``` c = a * b ``` ### 向量分部 ``` c = a / b ``` ### 向量點產品 ``` c = a.dot(b) ``` ### 向量標量乘法 ``` c = a * 2.2 ``` ### 向量規范 ``` from numpy.linalg import norm l2 = norm(v) ``` ## 3.矩陣 矩陣是標量的二維數組。 ### 矩陣加法 ``` C = A + B ``` ### 矩陣減法 ``` C = A - B ``` ### 矩陣乘法(Hadamard 產品) ``` C = A * B ``` ### 矩陣分部 ``` C = A / B ``` ### 矩陣 - 矩陣乘法(點積) ``` C = A.dot(B) ``` ### 矩陣向量乘法(點積) ``` C = A.dot(b) ``` ### 矩陣 - 標量乘法 ``` C = A.dot(2.2) ``` ## 4.矩陣的類型 不同類型的矩陣通常用作更廣泛計算中的元素。 ### 三角矩陣 ``` # lower from numpy import tril lower = tril(M) # upper from numpy import triu upper = triu(M) ``` ### 對角矩陣 ``` from numpy import diag d = diag(M) ``` ### 身份矩陣 ``` from numpy import identity I = identity(3) ``` ## 5.矩陣運算 矩陣運算通常用作更廣泛計算中的元素。 ### 矩陣轉置 ``` B = A.T ``` ### 矩陣反演 ``` from numpy.linalg import inv B = inv(A) ``` ### 矩陣追蹤 ``` from numpy import trace B = trace(A) ``` ### 矩陣行列式 ``` from numpy.linalg import det B = det(A) ``` ### 矩陣排名 ``` from numpy.linalg import matrix_rank r = matrix_rank(A) ``` ## 6.矩陣分解 矩陣分解或矩陣分解將矩陣分解為其組成部分,以使其他操作更簡單,數值更穩定。 ### LU 分解 ``` from scipy.linalg import lu P, L, U = lu(A) ``` ### QR 分解 ``` from numpy.linalg import qr Q, R = qr(A, 'complete') ``` ### 特征分解 ``` from numpy.linalg import eig values, vectors = eig(A) ``` ### 奇異值分解 ``` from scipy.linalg import svd U, s, V = svd(A) ``` ## 7.統計 統計數據總結了向量或矩陣的內容,通常用作更廣泛操作的組件。 ### 意思 ``` from numpy import mean result = mean(v) ``` ### 方差 ``` from numpy import var result = var(v, ddof=1) ``` ### 標準偏差 ``` from numpy import std result = std(v, ddof=1) ``` ### 協方差矩陣 ``` from numpy import cov sigma = cov(v1, v2) ``` ### 線性最小二乘法 ``` from numpy.linalg import lstsq b = lstsq(X, y) ``` ## 進一步閱讀 如果您希望深入了解,本節將提供有關該主題的更多資源。 ### NumPy API * [線性代數](https://docs.scipy.org/doc/numpy-1.13.0/reference/routines.linalg.html) * [統計](https://docs.scipy.org/doc/numpy-1.13.0/reference/routines.statistics.html) ### 其他作弊表 * [Python For Data Science 備忘單,DataCamp(PDF)](https://s3.amazonaws.com/assets.datacamp.com/blog_assets/Python_SciPy_Cheat_Sheet_Linear_Algebra.pdf) * [線性代數四頁解釋(PDF)](https://minireference.com/static/tutorials/linear_algebra_in_4_pages.pdf) * [線性代數備忘單](https://github.com/scalanlp/breeze/wiki/Linear-Algebra-Cheat-Sheet) ## 摘要 在本教程中,您發現了線性代數的關鍵函數,您可能會發現這些函數可用作機器學習從業者。 您是否使用或了解其他關鍵的線性代數函數? 請在下面的評論中告訴我。 你有任何問題嗎? 在下面的評論中提出您的問題,我會盡力回答。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看