# 如何開始深度學習自然語言處理(7 天迷你課程)
> 原文: [https://machinelearningmastery.com/crash-course-deep-learning-natural-language-processing/](https://machinelearningmastery.com/crash-course-deep-learning-natural-language-processing/)
## NLP 速成班的深度學習。
#### 在 7 天內為您的文本數據項目帶來深度學習方法。
我們充斥著文字,包括書籍,論文,博客,推文,新聞,以及來自口頭發言的越來越多的文字。
處理文本很難,因為它需要利用來自不同領域的知識,如語言學,機器學習,統計方法,以及如今的深度學習。
深度學習方法開始在一些具有挑戰性的自然語言處理問題上超越經典和統計方法,使用單一和簡單的模型。
在本速成課程中,您將了解如何在 7 天內使用 Python 開始并自信地開發自然語言處理問題的深度學習。
這是一個重要且重要的帖子。您可能想要將其加入書簽。
讓我們開始吧。

如何開始深度學習自然語言處理
照片由 [Daniel R. Blume](https://www.flickr.com/photos/drb62/2054107736/) ,保留一些權利。
## 誰是這個崩潰課程?
在我們開始之前,讓我們確保您在正確的位置。
以下列表提供了有關本課程設計對象的一般指導原則。
如果你沒有完全匹配這些點,請不要驚慌,你可能只需要在一個或另一個區域刷新以跟上。
**你需要知道:**
* 你需要了解基本的 Python,NumPy 和 Keras 的深度學習方法。
**你不需要知道:**
* 你不需要成為一個數學家!
* 你不需要成為一名深度學習專家!
* 你不需要成為一名語言學家!
這個速成課程將帶您從了解機器學習的開發人員到可以為您自己的自然語言處理項目帶來深度學習方法的開發人員。
注意:此速成課程假設您有一個有效的 Python 2 或 3 SciPy 環境,至少安裝了 NumPy,Pandas,scikit-learn 和 Keras 2。如果您需要有關環境的幫助,可以按照此處的分步教程進行操作:
* [如何使用 Anaconda 設置用于機器學習和深度學習的 Python 環境](https://machinelearningmastery.com/setup-python-environment-machine-learning-deep-learning-anaconda/)
## 速成課程概述
這個速成課程分為 7 節課。
您可以每天完成一節課(推薦)或在一天內完成所有課程(硬核)。這取決于你有空的時間和你的熱情程度。
以下是 7 個課程,通過深入學習 Python 中的自然語言處理,可以幫助您開始并提高工作效率:
1. **第 01 課**:深度學習和自然語言
2. **第 02 課**:清理文本數據
3. **第 03 課**:Bag-of-Words 模型
4. **第 04 課**:詞嵌入表示
5. **第 05 課**:學習嵌入
6. **第 06 課**:文本分類
7. **第 07 課**:電影評論情感分析項目
每節課可能需要 60 秒或 30 分鐘。花點時間,按照自己的進度完成課程。在下面的評論中提出問題甚至發布結果。
課程期望你去學習如何做事。我會給你提示,但每節課的部分內容是強迫你學習去哪里尋求幫助以及深入學習,自然語言處理和 Python 中最好的工具(提示,我直接在這個博客上有所有答案,使用搜索框)。
我確實以相關帖子的鏈接形式提供了更多幫助,因為我希望你建立一些信心和慣性。
在評論中發布您的結果,我會為你歡呼!
掛在那里,不要放棄。
**注**:這只是一個速成課程。有關更多細節和 30 個充實的教程,請參閱我的書,主題為“ _[深度學習自然語言處理](https://machinelearningmastery.com/deep-learning-for-nlp/)”。_
## 第一課:深度學習和自然語言
在本課程中,您將發現自然語言,深度學習的簡明定義以及使用文本數據進行深度學習的承諾。
### 自然語言處理
自然語言處理(簡稱 NLP)被廣義地定義為通過軟件自動操縱自然語言,如語音和文本。
自然語言處理的研究已經存在了 50 多年,隨著計算機的興起,語言學領域逐漸興起。
理解文本的問題沒有解決,也可能永遠不會,主要是因為語言混亂。規則很少。然而,我們可以在大多數時間輕松地相互理解。
### 深度學習
深度學習是機器學習的一個子領域,涉及受大腦結構和功能激發的算法,稱為人工神經網絡。
深度學習的一個特性是這些類型的模型的表現通過增加其深度或代表能力來訓練它們的更多示例而得到改善。
除了可擴展性之外,深度學習模型的另一個經常被引用的好處是它們能夠從原始數據執行自動特征提取,也稱為特征學習。
### NLP 深度學習的承諾
深度學習方法在自然語言中很受歡迎,主要是因為它們兌現了他們的承諾。
深度學習的第一次大型演示是自然語言處理,特別是語音識別。最近在機器翻譯。
自然語言處理深度學習的三個關鍵承諾如下:
* **特色學習的承諾**。也就是說,深度學習方法可以從模型所需的自然語言中學習特征,而不是要求專家指定和提取特征。
* **持續改進的承諾**。也就是說,自然語言處理中的深度學習的表現基于實際結果,并且改進似乎在繼續并且可能加速。
* **端到端模型的承諾**。也就是說,大型端到端深度學習模型可以適應自然語言問題,提供更通用,表現更好的方法。
自然語言處理不是“解決”,但需要深入學習才能使您掌握該領域中許多具有挑戰性的問題的最新技術。
### 你的任務
在本課程中,您必須研究并列出深度學習方法在自然語言處理領域的 10 個令人印象深刻的應用。如果您可以鏈接到演示該示例的研究論文,則可獲得獎勵積分。
在下面的評論中發表您的答案。我很樂意看到你發現了什么。
### 更多信息
* [什么是自然語言處理?](https://machinelearningmastery.com/natural-language-processing/)
* [什么是深度學習?](https://machinelearningmastery.com/what-is-deep-learning/)
* [深度學習對自然語言處理的承諾](https://machinelearningmastery.com/promise-deep-learning-natural-language-processing/)
* [7 深度學習在自然語言處理中的應用](https://machinelearningmastery.com/applications-of-deep-learning-for-natural-language-processing/)
在下一課中,您將了解如何清理文本數據以便為建模做好準備。
## 第 02 課:清理文本數據
在本課程中,您將了解如何加載和清理文本數據,以便可以手動和使用 NLTK Python 庫進行建模。
### 文字很亂
你不能直接從原始文本到適合機器學習或深度學習模型。
您必須首先清理文本,這意味著將其拆分為單詞并規范化問題,例如:
* 大寫和小寫字符。
* 單詞內部和周圍的標點符號。
* 金額和日期等數字。
* 拼寫錯誤和區域變化。
* Unicode 字符
* 以及更多…
### 手動標記
一般來說,我們指的是將原始文本轉換為我們可以建模為“分詞”的東西的過程,其中我們留下了單詞列表或“標記”。
我們可以手動開發 Python 代碼來清理文本,并且這通常是一種很好的方法,因為每個文本數據集必須以獨特的方式進行分詞。
例如,下面的代碼片段將加載文本文件,按空格分割標記并將每個標記轉換為小寫。
```py
filename = '...'
file = open(filename, 'rt')
text = file.read()
file.close()
# split into words by white space
words = text.split()
# convert to lowercase
words = [word.lower() for word in words]
```
您可以想象如何擴展此代碼段以處理和規范化 Unicode 字符,刪除標點符號等。
### NLTK 分詞
許多用于標記原始文本的最佳實踐已被捕獲并在名為 Natural Language Toolkit 或 NLTK 的 Python 庫中提供。
您可以使用 pip 在命令行上鍵入以下命令來安裝此庫:
```py
sudo pip install -U nltk
```
安裝后,還必須通過 Python 腳本安裝庫使用的數據集:
```py
import nltk
nltk.download()
```
或通過命令行:
```py
python -m nltk.downloader all
```
安裝后,您可以使用 API??來標記文本。例如,下面的代碼段將加載并分詞 ASCII 文本文件。
```py
# load data
filename = '...'
file = open(filename, 'rt')
text = file.read()
file.close()
# split into words
from nltk.tokenize import word_tokenize
tokens = word_tokenize(text)
```
此庫中有許多工具,您可以使用自己的手動方法進一步優化干凈的令牌,例如刪除標點,刪除停用詞,詞干等等。
### 你的任務
您的任務是在 Project Gutenberg 網站上找到一本免費的經典書籍,下載書籍的 ASCII 版本并將文本分詞并將結果保存到新文件中。探索手動和 NLTK 方法的加分點。
在下面的評論中發布您的代碼。我很想看看你選擇哪本書以及你如何選擇它來標記它。
### 更多信息
* [Gutenberg 項目](http://www.gutenberg.org/)
* [nltk.tokenize 包 API](http://www.nltk.org/api/nltk.tokenize.html)
* [如何使用 Python 清理機器學習文本](https://machinelearningmastery.com/clean-text-machine-learning-python/)
在下一課中,您將發現詞袋模型。
## 第 03 課:詞袋模型
在本課程中,您將發現單詞模型包以及如何使用此模型對文本進行編碼,以便您可以使用 scikit-learn 和 Keras Python 庫來訓練模型。
### 一袋詞
詞袋模型是一種在使用機器學習算法對文本建模時表示文本數據的方式。
該方法非常簡單和靈活,并且可以以多種方式用于從文檔中提取特征。
詞袋是文本的表示,用于描述文檔中單詞的出現。
選擇詞匯表,其中可能丟棄一些不經常使用的詞。然后使用對于詞匯表中的每個單詞具有一個位置的向量以及在文檔中出現(或不出現)的每個已知單詞的分數來表示給定的文本文檔。
它被稱為單詞的“包”,因為有關文檔中單詞的順序或結構的任何信息都被丟棄。該模型僅關注文檔中是否出現已知單詞,而不是文檔中的位置。
## 帶有 scikit-learn 的詞匯
用于機器學習的 scikit-learn Python 庫提供了用于為詞袋模型編碼文檔的工具。
可以創建編碼器的實例,在文本文檔集上訓練,然后反復使用以編碼訓練,測試,驗證以及需要為您的模型編碼的任何新數據。
有一個編碼器根據他們的計數得分單詞,稱為 CountVectorizer,一個用于使用每個單詞的哈希函數來減少稱為 HashingVectorizer 的向量長度,以及一個使用基于文檔中單詞出現的得分和反向出現的單詞。所有文件稱為 TfidfVectorizer。
下面的代碼段顯示了如何訓練 TfidfVectorizer 字袋編碼器并使用它來編碼多個小文本文檔。
```py
from sklearn.feature_extraction.text import TfidfVectorizer
# list of text documents
text = ["The quick brown fox jumped over the lazy dog.",
"The dog.",
"The fox"]
# create the transform
vectorizer = TfidfVectorizer()
# tokenize and build vocab
vectorizer.fit(text)
# summarize
print(vectorizer.vocabulary_)
print(vectorizer.idf_)
# encode document
vector = vectorizer.transform([text[0]])
# summarize encoded vector
print(vector.shape)
print(vector.toarray())
```
### 與 Keras 的詞袋
用于深度學習的 Keras Python 庫還提供了使用 Tokenizer 類中的 bag-of words-model 對文本進行編碼的工具。
如上所述,編碼器必須在源文檔上進行訓練,然后可用于對將來的訓練數據,測試數據和任何其他數據進行編碼。 API 還具有在對單詞進行編碼之前執行基本分詞的優點。
下面的代碼段演示了如何使用 Keras API 和單詞的“計數”類型評分來訓練和編碼一些小型文本文檔。
```py
from keras.preprocessing.text import Tokenizer
# define 5 documents
docs = ['Well done!',
'Good work',
'Great effort',
'nice work',
'Excellent!']
# create the tokenizer
t = Tokenizer()
# fit the tokenizer on the documents
t.fit_on_texts(docs)
# summarize what was learned
print(t.word_counts)
print(t.document_count)
print(t.word_index)
print(t.word_docs)
# integer encode documents
encoded_docs = t.texts_to_matrix(docs, mode='count')
print(encoded_docs)
```
### 你的任務
您在本課程中的任務是嘗試使用 scikit-learn 和 Keras 方法為單詞包模型編碼小型設計文本文檔。如果您使用文檔的小型標準文本數據集進行練習并執行數據清理作為準備工作的一部分,則可獲得獎勵積分。
在下面的評論中發布您的代碼。我很想看看您探索和演示的 API。
### 更多信息
* [對詞袋模型的溫和介紹](https://machinelearningmastery.com/gentle-introduction-bag-words-model/)
* [如何使用 scikit-learn](https://machinelearningmastery.com/prepare-text-data-machine-learning-scikit-learn/) 為機器學習準備文本數據
* [如何使用 Keras](https://machinelearningmastery.com/prepare-text-data-deep-learning-keras/) 為深度學習準備文本數據
在下一課中,您將發現單詞嵌入。
## 第 04 課:詞嵌入表示法
在本課程中,您將發現嵌入分布式表示的單詞以及如何使用 Gensim Python 庫開發單詞嵌入。
### 詞嵌入
詞嵌入是一種單詞表示,允許具有相似含義的單詞具有相似的表示。
它們是文本的分布式表示,這可能是深度學習方法在挑戰自然語言處理問題上令人印象深刻的表現的關鍵突破之一。
單詞嵌入方法從文本語料庫中學習預定義固定大小的詞匯表的實值向量表示。
### 訓練詞嵌入
您可以使用 Gensim Python 庫訓練嵌入分布式表示的單詞,以進行主題建模。
Gensim 提供了 word2vec 算法的實現,該算法是在 Google 開發的,用于快速訓練來自文本文檔的字嵌入表示,
您可以在命令行中鍵入以下內容,使用 pip 安裝 Gensim:
```py
pip install -U gensim
```
下面的代碼段顯示了如何定義一些人為的句子并在 Gensim 中訓練一個嵌入表示的單詞。
```py
from gensim.models import Word2Vec
# define training data
sentences = [['this', 'is', 'the', 'first', 'sentence', 'for', 'word2vec'],
['this', 'is', 'the', 'second', 'sentence'],
['yet', 'another', 'sentence'],
['one', 'more', 'sentence'],
['and', 'the', 'final', 'sentence']]
# train model
model = Word2Vec(sentences, min_count=1)
# summarize the loaded model
print(model)
# summarize vocabulary
words = list(model.wv.vocab)
print(words)
# access vector for one word
print(model['sentence'])
```
### 使用嵌入
一旦經過訓練,嵌入就可以保存到文件中,作為另一個模型的一部分,例如深度學習模型的前端。
您還可以繪制單詞的分布式表示的投影,以了解模型如何相信單詞的相關性。您可以使用的常見投影技術是主成分分析或 PCA,可在 scikit-learn 中使用。
下面的代碼段顯示了如何訓練單詞嵌入模型,然后繪制詞匯表中所有單詞的二維投影。
```py
from gensim.models import Word2Vec
from sklearn.decomposition import PCA
from matplotlib import pyplot
# define training data
sentences = [['this', 'is', 'the', 'first', 'sentence', 'for', 'word2vec'],
['this', 'is', 'the', 'second', 'sentence'],
['yet', 'another', 'sentence'],
['one', 'more', 'sentence'],
['and', 'the', 'final', 'sentence']]
# train model
model = Word2Vec(sentences, min_count=1)
# fit a 2D PCA model to the vectors
X = model[model.wv.vocab]
pca = PCA(n_components=2)
result = pca.fit_transform(X)
# create a scatter plot of the projection
pyplot.scatter(result[:, 0], result[:, 1])
words = list(model.wv.vocab)
for i, word in enumerate(words):
pyplot.annotate(word, xy=(result[i, 0], result[i, 1]))
pyplot.show()
```
### 你的任務
您在本課程中的任務是使用 Gensim 在文本文檔上訓練單詞嵌入,例如來自 Project Gutenberg 的書籍。如果您可以生成常用單詞的圖表,則可以獲得獎勵積分。
在下面的評論中發布您的代碼。我很想看看你選擇哪本書以及你學習嵌入的任何細節。
### 更多信息
* [什么是詞嵌入文本?](https://machinelearningmastery.com/what-are-word-embeddings/)
* [如何使用 Gensim](https://machinelearningmastery.com/develop-word-embeddings-python-gensim/) 在 Python 中開發詞嵌入
* [Gutenberg 項目](http://www.gutenberg.org/)
在下一課中,您將了解如何將詞嵌入作為深度學習模型的一部分進行學習。
## 第 05 課:學習嵌入
在本課程中,您將學習如何學習嵌入字的分布式表示的單詞,作為擬合深度學習模型的一部分
### 嵌入層
Keras 提供了一個嵌入層,可用于文本數據的神經網絡。
它要求輸入數據是整數編碼的,以便每個單詞由唯一的整數表示。可以使用 Keras 提供的 Tokenizer API 來執行該數據準備步驟。
使用隨機權重初始化嵌入層,并將學習訓練數據集中所有單詞的嵌入。你必須指定 _input_dim_ ,這是詞匯量的大小, _output_dim_ 是嵌入的向量空間的大小,可選擇 _input_length_ 是輸入序列中的單詞數。
```py
layer = Embedding(input_dim, output_dim, input_length=??)
```
或者,更具體地,200 個單詞的詞匯表,32 維的分布式表示和 50 個單詞的輸入長度。
```py
layer = Embedding(200, 32, input_length=50)
```
### 嵌入模型
嵌入層可以用作深度學習模型的前端,以提供豐富的單詞分布式表示,重要的是,這種表示可以作為訓練深度學習模型的一部分來學習。
例如,下面的代碼片段將定義和編譯具有嵌入輸入層和密集輸出層的神經網絡,用于文檔分類問題。
當模型被訓練有關填充文檔及其相關輸出標簽的示例時,網絡權重和分布式表示將被調整到特定數據。
```py
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import Flatten
from keras.layers.embeddings import Embedding
# define problem
vocab_size = 100
max_length = 32
# define the model
model = Sequential()
model.add(Embedding(vocab_size, 8, input_length=max_length))
model.add(Flatten())
model.add(Dense(1, activation='sigmoid'))
# compile the model
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['acc'])
# summarize the model
print(model.summary())
```
還可以使用預先訓練的權重來初始化嵌入層,例如由 Gensim 準備的權重,并將層配置為不可訓練的。如果可以使用非常大的文本語料庫來預先訓練單詞嵌入,則該方法可能是有用的。
### 你的任務
您在本課程中的任務是設計一個小型文檔分類問題,其中包含 10 個文檔,每個文檔包含一個句子以及相關的正面和負面結果標簽,并使用單詞嵌入這些數據來訓練網絡。請注意,在使用 Keras pad_sequences()函數訓練模型之前,需要將每個句子填充到相同的最大長度。如果您加載使用 Gensim 準備的預訓練單詞嵌入,則可獲得獎勵積分。
在下面的評論中發布您的代碼。我很想看看你設法的句子和模特的技巧。
### 更多信息
* [可變長度輸入序列的數據準備](https://machinelearningmastery.com/data-preparation-variable-length-input-sequences-sequence-prediction/)
* [如何使用 Keras 深入學習使用詞嵌入層](https://machinelearningmastery.com/use-word-embedding-layers-deep-learning-keras/)
在下一課中,您將了解如何開發用于分類文本的深度學習模型。
## 第 06 課:文本分類
在本課程中,您將發現標準的深度學習模型,用于對文本情感分析等問題上使用的文本進行分類。
### 文件分類
文本分類描述了一類問題,例如預測推文和電影評論的情感,以及將電子郵件分類為垃圾郵件。
它是自然語言處理的一個重要領域,也是開始在文本數據上使用深度學習技術的好地方。
深度學習方法在文本分類方面證明非常好,在一系列標準學術基準問題上實現了最先進的結果。
### 嵌入+ CNN
文本分類的操作方法涉及使用單詞嵌入來表示單詞,使用卷積神經網絡或 CNN 來學習如何區分分類問題的文檔。
該架構由三個關鍵部分組成:
* **單詞嵌入模型**:單詞的分布式表示,其中具有相似含義的不同單詞(基于其用法)也具有相似的表示。
* **卷積模型**:一種特征提取模型,用于學習從使用單詞嵌入表示的文檔中提取顯著特征。
* **完全連接模型**:根據預測輸出解釋提取的特征。
這種類型的模型可以在 Keras Python 深度學習庫中定義。下面的代碼段顯示了一個深度學習模型示例,用于將文本文檔分類為兩個類之一。
```py
# define problem
vocab_size = 100
max_length = 200
# define model
model = Sequential()
model.add(Embedding(vocab_size, 100, input_length=max_length))
model.add(Conv1D(filters=32, kernel_size=8, activation='relu'))
model.add(MaxPooling1D(pool_size=2))
model.add(Flatten())
model.add(Dense(10, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
print(model.summary())
```
### 你的任務
您在本課程中的任務是研究使用嵌入+ CNN 深度學習方法組合進行文本分類,并報告配置此模型的示例或最佳實踐,例如層數,內核大小,詞匯量大小等等。
如果您可以通過改變內核大小找到并描述支持 n-gram 或多組單詞作為輸入的變體,則可獲得獎勵積分。
在下面的評論中發布您的發現。我很樂意看到你發現了什么。
### 更多信息
* [深度學習文檔分類的最佳實踐](https://machinelearningmastery.com/best-practices-document-classification-deep-learning/)
在下一課中,您將了解如何處理情感分析預測問題。
## 第 07 課:電影評論情感分析項目
在本課程中,您將了解如何準備文本數據,開發和評估深度學習模型以預測電影評論的情感。
我希望您將在此速成課程中學到的所有內容聯系在一起,并通過端到端的實際問題進行處理。
### 電影評論數據集
電影評論數據集是 Bo Pang 和 Lillian Lee 在 21 世紀初從 imdb.com 網站上檢索到的電影評論的集合。收集的評論作為他們自然語言處理研究的一部分。
您可以從此處下載數據集:
* [電影評論 Polarity Dataset](http://www.cs.cornell.edu/people/pabo/movie-review-data/review_polarity.tar.gz) (review_polarity.tar.gz,3MB)
從該數據集中,您將開發情感分析深度學習模型,以預測給定的電影評論是正面還是負面。
### 你的任務
您在本課程中的任務是開發和評估電影評論數據集中的深度學習模型:
1. 下載并檢查數據集。
2. 清理并標記文本并將結果保存到新文件。
3. 將干凈的數據拆分為訓練和測試數據集。
4. 在訓練數據集上開發嵌入+ CNN 模型。
5. 評估測試數據集上的模型。
如果您可以通過對新的電影評論進行預測,設計或真實來展示您的模型,那么獎勵積分。如果您可以將您的模型與神經詞袋模型進行比較,則可獲得額外獎勵積分。
在下面的評論中發布您的代碼和模型技能。我很想看看你能想出什么。更簡單的模型是首選,但也嘗試深入,看看會發生什么。
### 更多信息
* [如何為情感分析準備電影評論數據](https://machinelearningmastery.com/prepare-movie-review-data-sentiment-analysis/)
* [如何開發一種用于預測電影評論情感的深度學習詞袋模型](https://machinelearningmastery.com/deep-learning-bag-of-words-model-sentiment-analysis/)
* [如何開發用于預測電影評論情感的詞嵌入模型](https://machinelearningmastery.com/develop-word-embedding-model-predicting-movie-review-sentiment/)
## 結束!
(看你有多遠)
你做到了。做得好!
花點時間回顧一下你到底有多遠。
你發現:
* 什么是自然語言處理,以及深度學習對該領域的承諾和影響。
* 如何手動清理和標記原始文本數據,并使用 NLTK 使其為建模做好準備。
* 如何使用帶有 scikit-learn 和 Keras 庫的詞袋模型對文本進行編碼。
* 如何訓練使用 Gensim 庫嵌入單詞的分布式表示的單詞。
* 如何學習嵌入分布式表示的單詞作為擬合深度學習模型的一部分。
* 如何使用卷積神經網絡的詞嵌入來解決文本分類問題。
* 如何使用深度學習方法端到端地處理真實的情感分析問題。
這只是您深入學習自然語言處理之旅的開始。繼續練習和發展你的技能。
下一步,查看我的[關于 NLP](https://machinelearningmastery.com/deep-learning-for-nlp/) 深度學習的書。
## 摘要
**你是如何使用迷你課程的?**
你喜歡這個速成班嗎?
**你有什么問題嗎?有沒有任何問題?**
讓我知道。在下面發表評論。
- Machine Learning Mastery 應用機器學習教程
- 5競爭機器學習的好處
- 過度擬合的簡單直覺,或者為什么測試訓練數據是一個壞主意
- 特征選擇簡介
- 應用機器學習作為一個搜索問題的溫和介紹
- 為什么應用機器學習很難
- 為什么我的結果不如我想的那么好?你可能過度擬合了
- 用ROC曲線評估和比較分類器表現
- BigML評論:發現本機學習即服務平臺的聰明功能
- BigML教程:開發您的第一個決策樹并進行預測
- 構建生產機器學習基礎設施
- 分類準確性不夠:可以使用更多表現測量
- 一種預測模型的巧妙應用
- 機器學習項目中常見的陷阱
- 數據清理:將凌亂的數據轉換為整潔的數據
- 機器學習中的數據泄漏
- 數據,學習和建模
- 數據管理至關重要以及為什么需要認真對待它
- 將預測模型部署到生產中
- 參數和超參數之間有什么區別?
- 測試和驗證數據集之間有什么區別?
- 發現特征工程,如何設計特征以及如何獲得它
- 如何開始使用Kaggle
- 超越預測
- 如何在評估機器學習算法時選擇正確的測試選項
- 如何定義機器學習問題
- 如何評估機器學習算法
- 如何獲得基線結果及其重要性
- 如何充分利用機器學習數據
- 如何識別數據中的異常值
- 如何提高機器學習效果
- 如何在競爭機器學習中踢屁股
- 如何知道您的機器學習模型是否具有良好的表現
- 如何布局和管理您的機器學習項目
- 如何為機器學習準備數據
- 如何減少最終機器學習模型中的方差
- 如何使用機器學習結果
- 如何解決像數據科學家這樣的問題
- 通過數據預處理提高模型精度
- 處理機器學習的大數據文件的7種方法
- 建立機器學習系統的經驗教訓
- 如何使用機器學習清單可靠地獲得準確的預測(即使您是初學者)
- 機器學習模型運行期間要做什么
- 機器學習表現改進備忘單
- 來自世界級從業者的機器學習技巧:Phil Brierley
- 模型預測精度與機器學習中的解釋
- 競爭機器學習的模型選擇技巧
- 機器學習需要多少訓練數據?
- 如何系統地規劃和運行機器學習實驗
- 應用機器學習過程
- 默認情況下可重現的機器學習結果
- 10個實踐應用機器學習的標準數據集
- 簡單的三步法到最佳機器學習算法
- 打擊機器學習數據集中不平衡類的8種策略
- 模型表現不匹配問題(以及如何處理)
- 黑箱機器學習的誘惑陷阱
- 如何培養最終的機器學習模型
- 使用探索性數據分析了解您的問題并獲得更好的結果
- 什么是數據挖掘和KDD
- 為什么One-Hot在機器學習中編碼數據?
- 為什么你應該在你的機器學習問題上進行抽樣檢查算法
- 所以,你正在研究機器學習問題......
- Machine Learning Mastery Keras 深度學習教程
- Keras 中神經網絡模型的 5 步生命周期
- 在 Python 迷你課程中應用深度學習
- Keras 深度學習庫的二元分類教程
- 如何用 Keras 構建多層感知器神經網絡模型
- 如何在 Keras 中檢查深度學習模型
- 10 個用于 Amazon Web Services 深度學習的命令行秘籍
- 機器學習卷積神經網絡的速成課程
- 如何在 Python 中使用 Keras 進行深度學習的度量
- 深度學習書籍
- 深度學習課程
- 你所知道的深度學習是一種謊言
- 如何設置 Amazon AWS EC2 GPU 以訓練 Keras 深度學習模型(分步)
- 神經網絡中批量和迭代之間的區別是什么?
- 在 Keras 展示深度學習模型訓練歷史
- 基于 Keras 的深度學習模型中的dropout正則化
- 評估 Keras 中深度學習模型的表現
- 如何評價深度學習模型的技巧
- 小批量梯度下降的簡要介紹以及如何配置批量大小
- 在 Keras 中獲得深度學習幫助的 9 種方法
- 如何使用 Keras 在 Python 中網格搜索深度學習模型的超參數
- 用 Keras 在 Python 中使用卷積神經網絡進行手寫數字識別
- 如何用 Keras 進行預測
- 用 Keras 進行深度學習的圖像增強
- 8 個深度學習的鼓舞人心的應用
- Python 深度學習庫 Keras 簡介
- Python 深度學習庫 TensorFlow 簡介
- Python 深度學習庫 Theano 簡介
- 如何使用 Keras 函數式 API 進行深度學習
- Keras 深度學習庫的多類分類教程
- 多層感知器神經網絡速成課程
- 基于卷積神經網絡的 Keras 深度學習庫中的目標識別
- 流行的深度學習庫
- 用深度學習預測電影評論的情感
- Python 中的 Keras 深度學習庫的回歸教程
- 如何使用 Keras 獲得可重現的結果
- 如何在 Linux 服務器上運行深度學習實驗
- 保存并加載您的 Keras 深度學習模型
- 用 Keras 逐步開發 Python 中的第一個神經網絡
- 用 Keras 理解 Python 中的有狀態 LSTM 循環神經網絡
- 在 Python 中使用 Keras 深度學習模型和 Scikit-Learn
- 如何使用預訓練的 VGG 模型對照片中的物體進行分類
- 在 Python 和 Keras 中對深度學習模型使用學習率調度
- 如何在 Keras 中可視化深度學習神經網絡模型
- 什么是深度學習?
- 何時使用 MLP,CNN 和 RNN 神經網絡
- 為什么用隨機權重初始化神經網絡?
- Machine Learning Mastery 深度學習 NLP 教程
- 深度學習在自然語言處理中的 7 個應用
- 如何實現自然語言處理的波束搜索解碼器
- 深度學習文檔分類的最佳實踐
- 關于自然語言處理的熱門書籍
- 在 Python 中計算文本 BLEU 分數的溫和介紹
- 使用編碼器 - 解碼器模型的用于字幕生成的注入和合并架構
- 如何用 Python 清理機器學習的文本
- 如何配置神經機器翻譯的編碼器 - 解碼器模型
- 如何開始深度學習自然語言處理(7 天迷你課程)
- 自然語言處理的數據集
- 如何開發一種深度學習的詞袋模型來預測電影評論情感
- 深度學習字幕生成模型的溫和介紹
- 如何在 Keras 中定義神經機器翻譯的編碼器 - 解碼器序列 - 序列模型
- 如何利用小實驗在 Keras 中開發字幕生成模型
- 如何從頭開發深度學習圖片標題生成器
- 如何在 Keras 中開發基于字符的神經語言模型
- 如何開發用于情感分析的 N-gram 多通道卷積神經網絡
- 如何從零開始開發神經機器翻譯系統
- 如何在 Python 中用 Keras 開發基于單詞的神經語言模型
- 如何開發一種預測電影評論情感的詞嵌入模型
- 如何使用 Gensim 在 Python 中開發詞嵌入
- 用于文本摘要的編碼器 - 解碼器深度學習模型
- Keras 中文本摘要的編碼器 - 解碼器模型
- 用于神經機器翻譯的編碼器 - 解碼器循環神經網絡模型
- 淺談詞袋模型
- 文本摘要的溫和介紹
- 編碼器 - 解碼器循環神經網絡中的注意力如何工作
- 如何利用深度學習自動生成照片的文本描述
- 如何開發一個單詞級神經語言模型并用它來生成文本
- 淺談神經機器翻譯
- 什么是自然語言處理?
- 牛津自然語言處理深度學習課程
- 如何為機器翻譯準備法語到英語的數據集
- 如何為情感分析準備電影評論數據
- 如何為文本摘要準備新聞文章
- 如何準備照片標題數據集以訓練深度學習模型
- 如何使用 Keras 為深度學習準備文本數據
- 如何使用 scikit-learn 為機器學習準備文本數據
- 自然語言處理神經網絡模型入門
- 對自然語言處理的深度學習的承諾
- 在 Python 中用 Keras 進行 LSTM 循環神經網絡的序列分類
- 斯坦福自然語言處理深度學習課程評價
- 統計語言建模和神經語言模型的簡要介紹
- 使用 Keras 在 Python 中進行 LSTM 循環神經網絡的文本生成
- 淺談機器學習中的轉換
- 如何使用 Keras 將詞嵌入層用于深度學習
- 什么是用于文本的詞嵌入
- Machine Learning Mastery 深度學習時間序列教程
- 如何開發人類活動識別的一維卷積神經網絡模型
- 人類活動識別的深度學習模型
- 如何評估人類活動識別的機器學習算法
- 時間序列預測的多層感知器網絡探索性配置
- 比較經典和機器學習方法進行時間序列預測的結果
- 如何通過深度學習快速獲得時間序列預測的結果
- 如何利用 Python 處理序列預測問題中的缺失時間步長
- 如何建立預測大氣污染日的概率預測模型
- 如何開發一種熟練的機器學習時間序列預測模型
- 如何構建家庭用電自回歸預測模型
- 如何開發多步空氣污染時間序列預測的自回歸預測模型
- 如何制定多站點多元空氣污染時間序列預測的基線預測
- 如何開發時間序列預測的卷積神經網絡模型
- 如何開發卷積神經網絡用于多步時間序列預測
- 如何開發單變量時間序列預測的深度學習模型
- 如何開發 LSTM 模型用于家庭用電的多步時間序列預測
- 如何開發 LSTM 模型進行時間序列預測
- 如何開發多元多步空氣污染時間序列預測的機器學習模型
- 如何開發多層感知器模型進行時間序列預測
- 如何開發人類活動識別時間序列分類的 RNN 模型
- 如何開始深度學習的時間序列預測(7 天迷你課程)
- 如何網格搜索深度學習模型進行時間序列預測
- 如何對單變量時間序列預測的網格搜索樸素方法
- 如何在 Python 中搜索 SARIMA 模型超參數用于時間序列預測
- 如何在 Python 中進行時間序列預測的網格搜索三次指數平滑
- 一個標準的人類活動識別問題的溫和介紹
- 如何加載和探索家庭用電數據
- 如何加載,可視化和探索復雜的多變量多步時間序列預測數據集
- 如何從智能手機數據模擬人類活動
- 如何根據環境因素預測房間占用率
- 如何使用腦波預測人眼是開放還是閉合
- 如何在 Python 中擴展長短期內存網絡的數據
- 如何使用 TimeseriesGenerator 進行 Keras 中的時間序列預測
- 基于機器學習算法的室內運動時間序列分類
- 用于時間序列預測的狀態 LSTM 在線學習的不穩定性
- 用于罕見事件時間序列預測的 LSTM 模型體系結構
- 用于時間序列預測的 4 種通用機器學習數據變換
- Python 中長短期記憶網絡的多步時間序列預測
- 家庭用電機器學習的多步時間序列預測
- Keras 中 LSTM 的多變量時間序列預測
- 如何開發和評估樸素的家庭用電量預測方法
- 如何為長短期記憶網絡準備單變量時間序列數據
- 循環神經網絡在時間序列預測中的應用
- 如何在 Python 中使用差異變換刪除趨勢和季節性
- 如何在 LSTM 中種子狀態用于 Python 中的時間序列預測
- 使用 Python 進行時間序列預測的有狀態和無狀態 LSTM
- 長短時記憶網絡在時間序列預測中的適用性
- 時間序列預測問題的分類
- Python 中長短期記憶網絡的時間序列預測
- 基于 Keras 的 Python 中 LSTM 循環神經網絡的時間序列預測
- Keras 中深度學習的時間序列預測
- 如何用 Keras 調整 LSTM 超參數進行時間序列預測
- 如何在時間序列預測訓練期間更新 LSTM 網絡
- 如何使用 LSTM 網絡的 Dropout 進行時間序列預測
- 如何使用 LSTM 網絡中的特征進行時間序列預測
- 如何在 LSTM 網絡中使用時間序列進行時間序列預測
- 如何利用 LSTM 網絡進行權重正則化進行時間序列預測
- Machine Learning Mastery 線性代數教程
- 機器學習數學符號的基礎知識
- 用 NumPy 陣列輕松介紹廣播
- 如何從 Python 中的 Scratch 計算主成分分析(PCA)
- 用于編碼器審查的計算線性代數
- 10 機器學習中的線性代數示例
- 線性代數的溫和介紹
- 用 NumPy 輕松介紹 Python 中的 N 維數組
- 機器學習向量的溫和介紹
- 如何在 Python 中為機器學習索引,切片和重塑 NumPy 數組
- 機器學習的矩陣和矩陣算法簡介
- 溫和地介紹機器學習的特征分解,特征值和特征向量
- NumPy 對預期價值,方差和協方差的簡要介紹
- 機器學習矩陣分解的溫和介紹
- 用 NumPy 輕松介紹機器學習的張量
- 用于機器學習的線性代數中的矩陣類型簡介
- 用于機器學習的線性代數備忘單
- 線性代數的深度學習
- 用于機器學習的線性代數(7 天迷你課程)
- 機器學習的線性代數
- 機器學習矩陣運算的溫和介紹
- 線性代數評論沒有廢話指南
- 學習機器學習線性代數的主要資源
- 淺談機器學習的奇異值分解
- 如何用線性代數求解線性回歸
- 用于機器學習的稀疏矩陣的溫和介紹
- 機器學習中向量規范的溫和介紹
- 學習線性代數用于機器學習的 5 個理由
- Machine Learning Mastery LSTM 教程
- Keras中長短期記憶模型的5步生命周期
- 長短時記憶循環神經網絡的注意事項
- CNN長短期記憶網絡
- 逆向神經網絡中的深度學習速成課程
- 可變長度輸入序列的數據準備
- 如何用Keras開發用于Python序列分類的雙向LSTM
- 如何開發Keras序列到序列預測的編碼器 - 解碼器模型
- 如何診斷LSTM模型的過度擬合和欠擬合
- 如何開發一種編碼器 - 解碼器模型,注重Keras中的序列到序列預測
- 編碼器 - 解碼器長短期存儲器網絡
- 神經網絡中爆炸梯度的溫和介紹
- 對時間反向傳播的溫和介紹
- 生成長短期記憶網絡的溫和介紹
- 專家對長短期記憶網絡的簡要介紹
- 在序列預測問題上充分利用LSTM
- 編輯器 - 解碼器循環神經網絡全局注意的溫和介紹
- 如何利用長短時記憶循環神經網絡處理很長的序列
- 如何在Python中對一個熱編碼序列數據
- 如何使用編碼器 - 解碼器LSTM來回顯隨機整數序列
- 具有注意力的編碼器 - 解碼器RNN體系結構的實現模式
- 學習使用編碼器解碼器LSTM循環神經網絡添加數字
- 如何學習長短時記憶循環神經網絡回聲隨機整數
- 具有Keras的長短期記憶循環神經網絡的迷你課程
- LSTM自動編碼器的溫和介紹
- 如何用Keras中的長短期記憶模型進行預測
- 用Python中的長短期內存網絡演示內存
- 基于循環神經網絡的序列預測模型的簡要介紹
- 深度學習的循環神經網絡算法之旅
- 如何重塑Keras中長短期存儲網絡的輸入數據
- 了解Keras中LSTM的返回序列和返回狀態之間的差異
- RNN展開的溫和介紹
- 5學習LSTM循環神經網絡的簡單序列預測問題的例子
- 使用序列進行預測
- 堆疊長短期內存網絡
- 什么是教師強制循環神經網絡?
- 如何在Python中使用TimeDistributed Layer for Long Short-Term Memory Networks
- 如何準備Keras中截斷反向傳播的序列預測
- 如何在使用LSTM進行訓練和預測時使用不同的批量大小
- Machine Learning Mastery 機器學習算法教程
- 機器學習算法之旅
- 用于機器學習的裝袋和隨機森林集合算法
- 從頭開始實施機器學習算法的好處
- 更好的樸素貝葉斯:從樸素貝葉斯算法中獲取最多的12個技巧
- 機器學習的提升和AdaBoost
- 選擇機器學習算法:Microsoft Azure的經驗教訓
- 機器學習的分類和回歸樹
- 什么是機器學習中的混淆矩陣
- 如何使用Python從頭開始創建算法測試工具
- 通過創建機器學習算法的目標列表來控制
- 從頭開始停止編碼機器學習算法
- 在實現機器學習算法時,不要從開源代碼開始
- 不要使用隨機猜測作為基線分類器
- 淺談機器學習中的概念漂移
- 溫和介紹機器學習中的偏差 - 方差權衡
- 機器學習的梯度下降
- 機器學習算法如何工作(他們學習輸入到輸出的映射)
- 如何建立機器學習算法的直覺
- 如何實現機器學習算法
- 如何研究機器學習算法行為
- 如何學習機器學習算法
- 如何研究機器學習算法
- 如何研究機器學習算法
- 如何在Python中從頭開始實現反向傳播算法
- 如何用Python從頭開始實現Bagging
- 如何用Python從頭開始實現基線機器學習算法
- 如何在Python中從頭開始實現決策樹算法
- 如何用Python從頭開始實現學習向量量化
- 如何利用Python從頭開始隨機梯度下降實現線性回歸
- 如何利用Python從頭開始隨機梯度下降實現Logistic回歸
- 如何用Python從頭開始實現機器學習算法表現指標
- 如何在Python中從頭開始實現感知器算法
- 如何在Python中從零開始實現隨機森林
- 如何在Python中從頭開始實現重采樣方法
- 如何用Python從頭開始實現簡單線性回歸
- 如何用Python從頭開始實現堆棧泛化(Stacking)
- K-Nearest Neighbors for Machine Learning
- 學習機器學習的向量量化
- 機器學習的線性判別分析
- 機器學習的線性回歸
- 使用梯度下降進行機器學習的線性回歸教程
- 如何在Python中從頭開始加載機器學習數據
- 機器學習的Logistic回歸
- 機器學習的Logistic回歸教程
- 機器學習算法迷你課程
- 如何在Python中從頭開始實現樸素貝葉斯
- 樸素貝葉斯機器學習
- 樸素貝葉斯機器學習教程
- 機器學習算法的過擬合和欠擬合
- 參數化和非參數機器學習算法
- 理解任何機器學習算法的6個問題
- 在機器學習中擁抱隨機性
- 如何使用Python從頭開始擴展機器學習數據
- 機器學習的簡單線性回歸教程
- 有監督和無監督的機器學習算法
- 用于機器學習的支持向量機
- 在沒有數學背景的情況下理解機器學習算法的5種技術
- 最好的機器學習算法
- 教程從頭開始在Python中實現k-Nearest Neighbors
- 通過從零開始實現它們來理解機器學習算法(以及繞過壞代碼的策略)
- 使用隨機森林:在121個數據集上測試179個分類器
- 為什么從零開始實現機器學習算法
- Machine Learning Mastery 機器學習入門教程
- 機器學習入門的四個步驟:初學者入門與實踐的自上而下策略
- 你應該培養的 5 個機器學習領域
- 一種選擇機器學習算法的數據驅動方法
- 機器學習中的分析與數值解
- 應用機器學習是一種精英政治
- 機器學習的基本概念
- 如何成為數據科學家
- 初學者如何在機器學習中弄錯
- 機器學習的最佳編程語言
- 構建機器學習組合
- 機器學習中分類與回歸的區別
- 評估自己作為數據科學家并利用結果建立驚人的數據科學團隊
- 探索 Kaggle 大師的方法論和心態:對 Diogo Ferreira 的采訪
- 擴展機器學習工具并展示掌握
- 通過尋找地標開始機器學習
- 溫和地介紹預測建模
- 通過提供結果在機器學習中獲得夢想的工作
- 如何開始機器學習:自學藍圖
- 開始并在機器學習方面取得進展
- 應用機器學習的 Hello World
- 初學者如何使用小型項目開始機器學習并在 Kaggle 上進行競爭
- 我如何開始機器學習? (簡短版)
- 我是如何開始機器學習的
- 如何在機器學習中取得更好的成績
- 如何從在銀行工作到擔任 Target 的高級數據科學家
- 如何學習任何機器學習工具
- 使用小型目標項目深入了解機器學習工具
- 獲得付費申請機器學習
- 映射機器學習工具的景觀
- 機器學習開發環境
- 機器學習金錢
- 程序員的機器學習
- 機器學習很有意思
- 機器學習是 Kaggle 比賽
- 機器學習現在很受歡迎
- 機器學習掌握方法
- 機器學習很重要
- 機器學習 Q& A:概念漂移,更好的結果和學習更快
- 缺乏自學機器學習的路線圖
- 機器學習很重要
- 快速了解任何機器學習工具(即使您是初學者)
- 機器學習工具
- 找到你的機器學習部落
- 機器學習在一年
- 通過競爭一致的大師 Kaggle
- 5 程序員在機器學習中開始犯錯誤
- 哲學畢業生到機器學習從業者(Brian Thomas 采訪)
- 機器學習入門的實用建議
- 實用機器學習問題
- 使用來自 UCI 機器學習庫的數據集練習機器學習
- 使用秘籍的任何機器學習工具快速啟動
- 程序員可以進入機器學習
- 程序員應該進入機器學習
- 項目焦點:Shashank Singh 的人臉識別
- 項目焦點:使用 Mahout 和 Konstantin Slisenko 進行堆棧交換群集
- 機器學習自學指南
- 4 個自學機器學習項目
- álvaroLemos 如何在數據科學團隊中獲得機器學習實習
- 如何思考機器學習
- 現實世界機器學習問題之旅
- 有關機器學習的有用知識
- 如果我沒有學位怎么辦?
- 如果我不是一個優秀的程序員怎么辦?
- 如果我不擅長數學怎么辦?
- 為什么機器學習算法會處理以前從未見過的數據?
- 是什么阻礙了你的機器學習目標?
- 什么是機器學習?
- 機器學習適合哪里?
- 為什么要進入機器學習?
- 研究對您來說很重要的機器學習問題
- 你這樣做是錯的。為什么機器學習不必如此困難
- Machine Learning Mastery Sklearn 教程
- Scikit-Learn 的溫和介紹:Python 機器學習庫
- 使用 Python 管道和 scikit-learn 自動化機器學習工作流程
- 如何以及何時使用帶有 scikit-learn 的校準分類模型
- 如何比較 Python 中的機器學習算法與 scikit-learn
- 用于機器學習開發人員的 Python 崩潰課程
- 用 scikit-learn 在 Python 中集成機器學習算法
- 使用重采樣評估 Python 中機器學習算法的表現
- 使用 Scikit-Learn 在 Python 中進行特征選擇
- Python 中機器學習的特征選擇
- 如何使用 scikit-learn 在 Python 中生成測試數據集
- scikit-learn 中的機器學習算法秘籍
- 如何使用 Python 處理丟失的數據
- 如何開始使用 Python 進行機器學習
- 如何使用 Scikit-Learn 在 Python 中加載數據
- Python 中概率評分方法的簡要介紹
- 如何用 Scikit-Learn 調整算法參數
- 如何在 Mac OS X 上安裝 Python 3 環境以進行機器學習和深度學習
- 使用 scikit-learn 進行機器學習簡介
- 從 shell 到一本帶有 Fernando Perez 單一工具的書的 IPython
- 如何使用 Python 3 為機器學習開發創建 Linux 虛擬機
- 如何在 Python 中加載機器學習數據
- 您在 Python 中的第一個機器學習項目循序漸進
- 如何使用 scikit-learn 進行預測
- 用于評估 Python 中機器學習算法的度量標準
- 使用 Pandas 為 Python 中的機器學習準備數據
- 如何使用 Scikit-Learn 為 Python 機器學習準備數據
- 項目焦點:使用 Artem Yankov 在 Python 中進行事件推薦
- 用于機器學習的 Python 生態系統
- Python 是應用機器學習的成長平臺
- Python 機器學習書籍
- Python 機器學習迷你課程
- 使用 Pandas 快速和骯臟的數據分析
- 使用 Scikit-Learn 重新調整 Python 中的機器學習數據
- 如何以及何時使用 ROC 曲線和精確調用曲線進行 Python 分類
- 使用 scikit-learn 在 Python 中保存和加載機器學習模型
- scikit-learn Cookbook 書評
- 如何使用 Anaconda 為機器學習和深度學習設置 Python 環境
- 使用 scikit-learn 在 Python 中進行 Spot-Check 分類機器學習算法
- 如何在 Python 中開發可重復使用的抽樣檢查算法框架
- 使用 scikit-learn 在 Python 中進行 Spot-Check 回歸機器學習算法
- 使用 Python 中的描述性統計來了解您的機器學習數據
- 使用 OpenCV,Python 和模板匹配來播放“哪里是 Waldo?”
- 使用 Pandas 在 Python 中可視化機器學習數據
- Machine Learning Mastery 統計學教程
- 淺談計算正態匯總統計量
- 非參數統計的溫和介紹
- Python中常態測試的溫和介紹
- 淺談Bootstrap方法
- 淺談機器學習的中心極限定理
- 淺談機器學習中的大數定律
- 機器學習的所有統計數據
- 如何計算Python中機器學習結果的Bootstrap置信區間
- 淺談機器學習的Chi-Squared測試
- 機器學習的置信區間
- 隨機化在機器學習中解決混雜變量的作用
- 機器學習中的受控實驗
- 機器學習統計學速成班
- 統計假設檢驗的關鍵值以及如何在Python中計算它們
- 如何在機器學習中談論數據(統計學和計算機科學術語)
- Python中數據可視化方法的簡要介紹
- Python中效果大小度量的溫和介紹
- 估計隨機機器學習算法的實驗重復次數
- 機器學習評估統計的溫和介紹
- 如何計算Python中的非參數秩相關性
- 如何在Python中計算數據的5位數摘要
- 如何在Python中從頭開始編寫學生t檢驗
- 如何在Python中生成隨機數
- 如何轉換數據以更好地擬合正態分布
- 如何使用相關來理解變量之間的關系
- 如何使用統計信息識別數據中的異常值
- 用于Python機器學習的隨機數生成器簡介
- k-fold交叉驗證的溫和介紹
- 如何計算McNemar的比較兩種機器學習量詞的測試
- Python中非參數統計顯著性測試簡介
- 如何在Python中使用參數統計顯著性測試
- 機器學習的預測間隔
- 應用統計學與機器學習的密切關系
- 如何使用置信區間報告分類器表現
- 統計數據分布的簡要介紹
- 15 Python中的統計假設檢驗(備忘單)
- 統計假設檢驗的溫和介紹
- 10如何在機器學習項目中使用統計方法的示例
- Python中統計功效和功耗分析的簡要介紹
- 統計抽樣和重新抽樣的簡要介紹
- 比較機器學習算法的統計顯著性檢驗
- 機器學習中統計容差區間的溫和介紹
- 機器學習統計書籍
- 評估機器學習模型的統計數據
- 機器學習統計(7天迷你課程)
- 用于機器學習的簡明英語統計
- 如何使用統計顯著性檢驗來解釋機器學習結果
- 什么是統計(為什么它在機器學習中很重要)?
- Machine Learning Mastery 時間序列入門教程
- 如何在 Python 中為時間序列預測創建 ARIMA 模型
- 用 Python 進行時間序列預測的自回歸模型
- 如何回溯機器學習模型的時間序列預測
- Python 中基于時間序列數據的基本特征工程
- R 的時間序列預測熱門書籍
- 10 挑戰機器學習時間序列預測問題
- 如何將時間序列轉換為 Python 中的監督學習問題
- 如何將時間序列數據分解為趨勢和季節性
- 如何用 ARCH 和 GARCH 模擬波動率進行時間序列預測
- 如何將時間序列數據集與 Python 區分開來
- Python 中時間序列預測的指數平滑的溫和介紹
- 用 Python 進行時間序列預測的特征選擇
- 淺談自相關和部分自相關
- 時間序列預測的 Box-Jenkins 方法簡介
- 用 Python 簡要介紹時間序列的時間序列預測
- 如何使用 Python 網格搜索 ARIMA 模型超參數
- 如何在 Python 中加載和探索時間序列數據
- 如何使用 Python 對 ARIMA 模型進行手動預測
- 如何用 Python 進行時間序列預測的預測
- 如何使用 Python 中的 ARIMA 進行樣本外預測
- 如何利用 Python 模擬殘差錯誤來糾正時間序列預測
- 使用 Python 進行數據準備,特征工程和時間序列預測的移動平均平滑
- 多步時間序列預測的 4 種策略
- 如何在 Python 中規范化和標準化時間序列數據
- 如何利用 Python 進行時間序列預測的基線預測
- 如何使用 Python 對時間序列預測數據進行功率變換
- 用于時間序列預測的 Python 環境
- 如何重構時間序列預測問題
- 如何使用 Python 重新采樣和插值您的時間序列數據
- 用 Python 編寫 SARIMA 時間序列預測
- 如何在 Python 中保存 ARIMA 時間序列預測模型
- 使用 Python 進行季節性持久性預測
- 基于 ARIMA 的 Python 歷史規模敏感性預測技巧分析
- 簡單的時間序列預測模型進行測試,這樣你就不會欺騙自己
- 標準多變量,多步驟和多站點時間序列預測問題
- 如何使用 Python 檢查時間序列數據是否是固定的
- 使用 Python 進行時間序列數據可視化
- 7 個機器學習的時間序列數據集
- 時間序列預測案例研究與 Python:波士頓每月武裝搶劫案
- Python 的時間序列預測案例研究:巴爾的摩的年度用水量
- 使用 Python 進行時間序列預測研究:法國香檳的月銷售額
- 使用 Python 的置信區間理解時間序列預測不確定性
- 11 Python 中的經典時間序列預測方法(備忘單)
- 使用 Python 進行時間序列預測表現測量
- 使用 Python 7 天迷你課程進行時間序列預測
- 時間序列預測作為監督學習
- 什么是時間序列預測?
- 如何使用 Python 識別和刪除時間序列數據的季節性
- 如何在 Python 中使用和刪除時間序列數據中的趨勢信息
- 如何在 Python 中調整 ARIMA 參數
- 如何用 Python 可視化時間序列殘差預測錯誤
- 白噪聲時間序列與 Python
- 如何通過時間序列預測項目
- Machine Learning Mastery XGBoost 教程
- 通過在 Python 中使用 XGBoost 提前停止來避免過度擬合
- 如何在 Python 中調優 XGBoost 的多線程支持
- 如何配置梯度提升算法
- 在 Python 中使用 XGBoost 進行梯度提升的數據準備
- 如何使用 scikit-learn 在 Python 中開發您的第一個 XGBoost 模型
- 如何在 Python 中使用 XGBoost 評估梯度提升模型
- 在 Python 中使用 XGBoost 的特征重要性和特征選擇
- 淺談機器學習的梯度提升算法
- 應用機器學習的 XGBoost 簡介
- 如何在 macOS 上為 Python 安裝 XGBoost
- 如何在 Python 中使用 XGBoost 保存梯度提升模型
- 從梯度提升開始,比較 165 個數據集上的 13 種算法
- 在 Python 中使用 XGBoost 和 scikit-learn 進行隨機梯度提升
- 如何使用 Amazon Web Services 在云中訓練 XGBoost 模型
- 在 Python 中使用 XGBoost 調整梯度提升的學習率
- 如何在 Python 中使用 XGBoost 調整決策樹的數量和大小
- 如何在 Python 中使用 XGBoost 可視化梯度提升決策樹
- 在 Python 中開始使用 XGBoost 的 7 步迷你課程