- 第1周
- 一、引言(Introduction)
- 1.1 歡迎
- 1.2 機器學習是什么?
- 1.3 監督學習
- 1.4 無監督學習
- 二、單變量線性回歸(Linear Regression with One Variable)
- 2.1模型表示
- 2.2 代價函數
- 2.3 代價函數的直觀理解I
- 2.4 代價函數的直觀理解II
- 2.5 梯度下降
- 2.6 梯度下降的直觀理解
- 2.7 梯度下降的線性回歸
- 2.8 接下來的內容
- 三、線性代數回顧(Linear Algebra Review)
- 3.1 矩陣和向量
- 3.2 加法和標量乘法
- 3.3 矩陣向量乘法
- 3.4 矩陣乘法
- 3.5 矩陣乘法的性質
- 3.6 逆、轉置
- 第2周
- 四、多變量線性回歸(Linear Regression with Multiple Variables)
- 4.1 多維特征
- 4.2 多變量梯度下降
- 4.3 梯度下降法實踐1-特征縮放
- 4.4 梯度下降法實踐2-學習率
- 4.5 特征和多項式回歸
- 4.6 正規方程
- 4.7 正規方程及不可逆性(可選)
- 五、Octave教程(Octave Tutorial)
- 5.1 基本操作
- 5.2 移動數據
- 5.3 計算數據
- 5.5 控制語句:for,while,if語句
- 5.6 向量化
- 5.7 工作和提交的編程練習
- 第3周
- 六、邏輯回歸(Logistic Regression)
- 6.1 分類問題
- 6.2 假說表示
- 6.3 判定邊界
- 6.4 代價函數
- 6.5 簡化的成本函數和梯度下降
- 6.6 高級優化
- 6.7 多類別分類:一對多
- 七、正則化(Regularization)
- 7.1 過擬合的問題
- 7.2 代價函數
- 7.3 正則化線性回歸
- 7.4 正則化的邏輯回歸模型
- 第4周
- 第八、神經網絡:表述(Neural Networks: Representation)
- 8.1 非線性假設
- 8.2 神經元和大腦
- 8.3模型表示1
- 8.4 模型表示2
- 8.5特征和直觀理解1
- 8.6 樣本和直觀理解II
- 8.7多類分類
- 第5周
- 九、神經網絡的學習(Neural Networks: Learning)
- 9.1 代價函數
- 9.2 反向傳播算法
- 9.3 反向傳播算法的直觀理解
- 9.4 實現注意:展開參數
- 9.5梯度檢驗
- 9.6 隨機初始化
- 9.7 綜合起來
- 9.8 自主駕駛
- 第6周
- 十、應用機器學習的建議(Advice for Applying Machine Learning)
- 10.1 決定下一步做什么
- 10.2 評估一個假設
- 10.3 模型選擇和交叉驗證集
- 10.4 診斷偏差和方差
- 10.5 歸一化和偏差/方差
- 10.6 學習曲線
- 10.7 決定下一步做什么
- 十一、機器學習系統的設計(Machine Learning System Design)
- 11.1 首先要做什么
- 11.2 誤差分析
- 11.3 類偏斜的誤差度量
- 11.4 查全率和查準率之間的權衡
- 11.5 機器學習的數據
- 第7周
- 十二、支持向量機(Support Vector Machines)
- 12.1 優化目標
- 12.2 大邊界的直觀理解
- 12.3 數學背后的大邊界分類(可選)
- 12.4 核函數1
- 12.5 核函數2
- 12.6 使用支持向量機
- 第8周
- 十三、聚類(Clustering)
- 13.1 無監督學習:簡介
- 13.2 K-均值算法
- 13.3 優化目標
- 13.4 隨機初始化
- 13.5 選擇聚類數
- 十四、降維(Dimensionality Reduction)
- 14.1 動機一:數據壓縮
- 14.2 動機二:數據可視化
- 14.3 主成分分析問題
- 14.4 主成分分析算法
- 14.5 選擇主成分的數量
- 14.6 重建的壓縮表示
- 14.7 主成分分析法的應用建議
- 第9周
- 十五、異常檢測(Anomaly Detection)
- 15.1 問題的動機
- 15.2 高斯分布
- 15.3 算法
- 15.4 開發和評價一個異常檢測系統
- 15.5 異常檢測與監督學習對比
- 15.6 選擇特征
- 15.7 多元高斯分布(可選)
- 15.8 使用多元高斯分布進行異常檢測(可選)
- 十六、推薦系統(Recommender Systems)
- 16.1 問題形式化
- 16.2 基于內容的推薦系統
- 16.3 協同過濾
- 16.4 協同過濾算法
- 16.5 矢量化:低秩矩陣分解
- 16.6 推行工作上的細節:均值歸一化
- 第10周
- 十七、大規模機器學習(Large Scale Machine Learning)
- 17.1 大型數據集的學習
- 17.2 隨機梯度下降法
- 17.3 小批量梯度下降
- 17.4 隨機梯度下降收斂
- 17.5 在線學習
- 17.6映射化簡和數據并行
- 十八、應用實例:圖片文字識別(Application Example: Photo OCR)
- 18.1 問題描述和流程圖
- 18.2 滑動窗口
- 18.3 獲取大量數據和人工數據
- 18.4 上限分析:哪部分管道的接下去做
- 十九、總結(Conclusion)
- 19.1 總結和致謝