# 二、線性模型
## 廣播
當我們操作不同維度的數組時,它們可以以不同的方式組合,無論是逐元素還是通過廣播。
讓我們從頭開始,構建更復雜的例子。 在下面的示例中,我們有表示單個數字的 TensorFlow 常量。
```py
import tensorflow as tf
a = tf.constant(3, name='a')
with tf.Session() as session:
print(session.run(a))
```
這里沒什么驚喜! 我們也可以進行計算,例如將其加上另一個數字:
```py
a = tf.constant(3, name='a')
b = tf.constant(4, name='b')
add_op = a + b
with tf.Session() as session:
print(session.run(add_op))
```
讓我們將這個概念擴展到一個數字列表。 首先,讓我們創建一個包含三個數字的列表,然后創建另一個數字列表:
```py
a = tf.constant([1, 2, 3], name='a')
b = tf.constant([4, 5, 6], name='b')
add_op = a + b
with tf.Session() as session:
print(session.run(add_op))
```
這稱為逐元素操作,其中依次考慮每個列表中的元素,將它們相加,然后合并結果。
如果我們將這個列表和僅僅一個數字相加,會發生什么?
```py
a = tf.constant([1, 2, 3], name='a')
b = tf.constant(4, name='b')
add_op = a + b
with tf.Session() as session:
print(session.run(add_op))
```
這是你所期望的嗎? 這被稱為廣播操作。 我們的主要對象引用是`a`,它是一個數字列表,也稱為數組或一維向量。 與單個數字(稱為標量)相加會產生廣播操作,其中標量將與列表的每個元素相加。
現在讓我們看一個擴展,它是一個二維數組,也稱為矩陣。 這個額外的維度可以被認為是“列表的列表”。 換句話說,列表是標量的組合,矩陣是列表的列表。
也就是說,矩陣上的操作如何工作?
```py
a = tf.constant([[1, 2, 3], [4, 5, 6]], name='a')
b = tf.constant([[1, 2, 3], [4, 5, 6]], name='b')
add_op = a + b
with tf.Session() as session:
print(session.run(add_op))
```
這是逐元素的。 如果我們加上一個標量,結果是可以預測的:
```py
a = tf.constant([[1, 2, 3], [4, 5, 6]], name='a')
b = tf.constant(100, name='b')
add_op = a + b
with tf.Session() as session:
print(session.run(add_op))
```
事情開始變得棘手。 如果我們將一維數組與二維矩陣相加會發生什么?
```py
a = tf.constant([[1, 2, 3], [4, 5, 6]], name='a')
b = tf.constant([100, 101, 102], name='b')
add_op = a + b
with tf.Session() as session:
print(session.run(add_op))
```
在這種情況下,數組被廣播為矩陣的形狀,導致數組與矩陣的每一行相加。 使用此術語,矩陣是行的列表。
如果我們不想要這個,而是想將矩陣的列與`b`相加呢?
```py
a = tf.constant([[1, 2, 3], [4, 5, 6]], name='a')
b = tf.constant([100, 101,], name='b')
add_op = a + b
with tf.Session() as session:
print(session.run(add_op))
```
這不起作用,因為 TensorFlow 試圖按照行廣播。 它不能這樣做,因為`b`中的值的數量(2)與每行中的標量數量(3)不同。
我們可以通過從列表中創建一個新矩陣來執行此操作。
```py
a = tf.constant([[1, 2, 3], [4, 5, 6]], name='a')
b = tf.constant([[100], [101]], name='b')
add_op = a + b
with tf.Session() as session:
print(session.run(add_op))
```
這里發生了什么? 要理解這一點,讓我們看一下矩陣形狀。
```py
a.shape
TensorShape([Dimension(2), Dimension(3)])
b.shape
TensorShape([Dimension(2), Dimension(1)])
```
你可以從這兩個示例中看到`a`有兩個維度,第一個大小為 2,第二個大小為 3。換句話說,它有兩行,每行有三個標量。
我們的常數`b`也有兩個維度,兩行,每行一個標量。如果有一行兩個標量,這與列表不同,也與矩陣不同。
由于形狀在第一維匹配,而第二維不匹配的事實,廣播發生在列而不是行中。 廣播規則的更多信息請參見[此處](https://www.tensorflow.org/versions/master/experimental/xla/broadcasting)。
創建一個三維矩陣。 如果將其與標量,數組或矩陣相加,會發生什么?
使用`tf.shape`(這是一個操作)在圖的操作期間獲得常量的形狀。
考慮更高維矩陣的用例。 換句話說,在哪里你可能需要 4D 矩陣,甚至是 5D 矩陣? 提示:考慮集合而不是單個對象。
## 隨機性
機器學習模型是許多變量的復雜集合,但必須經過訓練才能找到好的值。這也意味著必須將這些“權重”設置為初始值。一種選擇是從所有權重為零開始。但是,這會在算法上引起問題 - 基本上,錯誤的梯度無法修復錯誤。相反,我們經常將這些權重設置為隨機值。然后,模型學習并調整。
TensorFlow 有許多用于生成隨機數的內置方法。這包括我們熟悉的分布,如“均勻”,以及你可能聽說過的其他分布,如“正態”分布。均勻分布就像你擲骰子時得到的東西那樣 - 有一組值,它們都是等可能的。正態分布是統計課程中教授的標準,其中數據具有更可能的平均值,以及圍繞它的“鐘形”曲線。我們將看到的,其他的也包括在內。
在本節中,我們將創建一個基本的輔助函數,它只運行一個 TensorFlow 變量。這個小函數非常有用!它創建一個會話,初始化變量并為我們運行它。它僅限于單個變量,因此對于較大的程序可能沒有用。
```py
import tensorflow as tf
def run_variable(variable):
tf.initialize_all_variables()
with tf.Session() as sess:
return sess.run(variable)
```
希望現在這對你來說都很熟悉。 如果沒有,請再看看第一章,開始吧。
讓我們從一個基本的分布開始,均勻分布。
```py
my_distribution = tf.random_uniform((6, 4), seed=42)
uniform = run_variable(my_distribution)
```
這為我們提供了一個 6 乘 4 的張量(隨機值的更多信息,請參閱上一節)。為了可視化,我們可以使用直方圖:
```py
from matplotlib import pyplot as plt
plt.hist(uniform.flatten())
plt.show()
```
請注意,如果你使用的是 Jupyter 筆記本,請使用`%matplotlib inline`并刪除`plt.show()`行。
所得圖像顯示了圖片,雖然還不是很清楚......

此直方圖顯示可能的值介于 0 和 1 之間。每個值應該是等可能的,但它看起來并不是那樣。 原因是我們只選擇了少量的值。 如果我們增加數組的大小,它會變得更加均勻。
```py
large_normal = tf.random_uniform((600, 400), seed=42)
large_uniform = run_variable(large_normal)
plt.hist(large_uniform.flatten())
plt.show()
```

更均勻了!
如果你沒有任何其他信息,對于在機器學習模型中初始化權重,均勻分布非常有用。 它也是一個“有界”分布,它具有設定的最小值和最大值,隨機值不能超出該范圍。 要更改范圍,例如更改為 0 和 10,請乘以范圍并添加最小值。 在課程結束時有一個練習。
另一種常用的分布是正態分布,在 TensorFlow 中實現為`random_normal`函數:
```py
distribution = tf.random_normal((600, 4), seed=42)
normal = run_variable(distribution)
plt.hist(normal.flatten())
plt.show()
```

默認情況下,此分布的平均值約為 0,標準差為 1。這些值不受限制,但越來越不可能偏離平均值,標準差設置了可能性減小的速率。 在實踐中,大約 60% 的值落在距離平均值一個標準差的“半徑”內,并且 99% 落在 4 個標準差內。
均值和標準差是`random_normal`函數的參數。 例如,身高可近似建模為正態分布,平均值約為 170cm,標準差約為 15cm。
```py
distribution = tf.random_normal((10000,), seed=42, mean=170, stddev=15)
normal = run_variable(distribution)
plt.hist(normal.flatten())
plt.show()
```

到目前為止,我們的直方圖使用`matplotlib`生成。 我們也可以使用 TensorFlow 來創建它們!`histogram_fixed_width`函數接受值的列表(如我們的隨機值),范圍和要計算的桶數。 然后計算每個桶的范圍內有多少個值,并將結果作為數組返回。
```py
import numpy as np
bins = tf.histogram_fixed_width(normal, (normal.min(), normal.max()), nbins=20)
histogram_bins = run_variable(bins)
x_values = np.linspace(normal.min(), normal.max(), len(histogram_bins))
plt.bar(x_values, histogram_bins,)
```
在`plt.bar`調用中,我們再次手動生成`bin`值,然后使用條形圖將這些值繪制為`x`值,并使用`histogram_bins`作為高度。

這是正確的,但看起來不對。 直方圖的值在那里,但寬度非常窄(我們的箱桶僅由單個值表示)。 我們來解決這個問題:
```py
bar_width = (normal.max() - normal.min()) / len(histogram_bins)
plt.bar(x_values, histogram_bins, width=bar_width)
```

+ 使用均勻分布建模單次擲骰子。 繪制結果來確保其符合你的期望
+ 使用單個圖中的純 TensorFlow 調用替換本課程的最后一個代碼塊。 換句話說,使用 TensorFlow 概念來替換`.min()`,`.max()`和`len`調用。 只有繪圖在沒有 TensorFlow 的情況下進行!
## 線性方程
通過`tf.solve`函數,TensorFlow 可以求解線性方程組。 你可能會將這些視為連接的方程,如下所示:

這些類型的線性方程用于數學中的許多問題,從優化工廠輸出到幾何。 你可以使用多種方法解決這些方程,但在本課中,我們將了解如何使用`tf.solve`為我們執行此操作。
我將專注于幾何。 這是位于二維`(x, y)`空間的兩個點,`p1`和`p2`:

這是他們在圖上的樣子:

要在 TensorFlow 中執行此操作,我們首先設置線性方程組,我們的點位于中心。 首先,我們創建我們的點矩陣。 第一行對應于第一個點,第二行對應于第二個點。 同樣,第一列是`x`值,而第二列是`y`值。
```py
import tensorflow as tf
# 點 1
x1 = tf.constant(2, dtype=tf.float32)
y1 = tf.constant(9, dtype=tf.float32)
point1 = tf.stack([x1, y1])
# 點 2
x2 = tf.constant(-1, dtype=tf.float32)
y2 = tf.constant(3, dtype=tf.float32)
point2 = tf.stack([x2, y2])
# 將點組合為數組
X = tf.transpose(tf.stack([point1, point2]))
```
直線的方程是:

重新排列方程(5),使`x`和`y`在同一側,我們得到以下結果:

我們的任務是在給定觀測點的情況下,找到上面的方程中的`a`和`b`的值。 我們可以通過取點數組的逆并將其乘以一個矩陣,來輕易做到這一點。
使用矩陣(因為我們使用的是 TensorFlow),如果`X`是我們觀察點的矩陣,而`A`是我們需要學習的參數,我們設置一個系統:

接下來要學習的參數就是:

矩陣`B`很簡單,適當廣播的數字 1,它源于上面方程的右側。
矩陣`A`是上面方程 3 中的參數。
```py
B = tf.ones((1, 2), dtype=tf.float32)
parameters = tf.matmul(B, tf.matrix_inverse(X))
with tf.Session() as session:
A = session.run(parameters)
```
最后一步是從上面的方程(5)中找到我們的`a`和`b`值,即從這些參數轉換(符合方程(7))。
```py
b = 1 / A[0][1]
a = -b * A[0][0]
print("Equation: y = {a}x + {b}".format(a=a, b=b))
```
這個解決方案很好地包含在`tf.solve`函數中。 為了看到它,讓我們看另一個例子。 這是一個圓圈:

以下是圓圈上的三個觀察點:


圓的規范方程是:

為了求解參數`d`,`e`和`f`,我們創建另一個點數組,并用 1 填充它來創建一個方陣。 我們正在尋找三個參數,因此我們的`A`矩陣必須具有形狀`(3, 3)`。
由于這個方程的平方部分沒有參數,當我們有`x`和`y`的觀測值時,我們的方程變得有點不同:

因此,我們的`A`矩陣由`x`和`y`值(以及另一列 1)組成,我們的`B`矩陣是負的`x`和`y`的平方和。
```py
import tensorflow as tf
points = tf.constant([[2, 1],
[0, 5],
[-1, 2]], dtype=tf.float64)
A = tf.constant([
[2, 1, 1],
[0, 5, 1],
[-1, 2, 1]
], dtype='float64')
B = -tf.constant([[5], [25], [5]])
```
然后我們使用`tf.matrix_solve`來找到我們的`X`數組,這是我們方程的參數。 在會話中運行它,我們得到三個值,即`D`,`E`和`F`。
```py
X = tf.matrix_solve(A, B)
with tf.Session() as session:
result = session.run(X)
D, E, F = result.flatten()
print("Equation: x**2 + y**2 + {D}x + {E}y + {F} = 0".format(**locals()))
```
1)求解包含以下三點的圓:`P(2,1)`, `Q(0,5)`, `R(-1,2)`
2)下面給出橢圓的一般形式。 解決以下幾點(解決這個方程需要五點):
橢圓的一般形式:

觀測點:

## 3D 中的 TensorFlow
TensorFlow 不僅僅是一個深度學習庫 - 它是一個但數值操作庫,因此它可以執行許多其他庫可以執行的任務。 在本課中,我們將介紹如何使用 TensorFlow 對 3D 對象執行操作。
3D 對象可以被建模為三維空間中的一系列三角形,我們通常將其稱為`(x, y, z)`。 這些名稱不是必需的,但通常使用。 從這些 3D 點中的三個創建三角形。 點本身可以表示為大小為`(3,)`的向量。 這些數組是一個大小為`(n, 3),`的矩陣,其中`n`是我們擁有的點數。 讓我們深入去看一個基本的立方體。 我們稍后將需要此功能,所以讓我們創建一個繪制基本形狀的函數:
```py
from mpl_toolkits.mplot3d import Axes3D
import numpy as np
from matplotlib import cm
import matplotlib.pyplot as plt
from scipy.spatial import Delaunay
?
def plot_basic_object(points):
"""繪制一個基本對象,假設它是凸的而不是太復雜"""
tri = Delaunay(points).convex_hull
fig = plt.figure(figsize=(8, 8))
ax = fig.add_subplot(111, projection='3d')
S = ax.plot_trisurf(points[:,0], points[:,1], points[:,2],
triangles=tri,
shade=True, cmap=cm.Blues,lw=0.5)
ax.set_xlim3d(-5, 5)
ax.set_ylim3d(-5, 5)
ax.set_zlim3d(-5, 5)
plt.show()
```
如果你正在使用 Jupyter 筆記本,我建議運行這一行代碼,它為你提供了一個非常棒的交互式 3D 繪圖。 左鍵單擊并拖動來左右移動,右鍵單擊并拖動來放大或縮小。
```py
%matplotlib notebook
```
現在讓我們創建一個形狀。 下面的函數將返回組成立方體的六個點。 如果你回到上一個函數,你將看到 Delaunay 線,它將這些點轉換成三角形,以便我們可以渲染它們。
```py
import numpy as np
def create_cube(bottom_lower=(0, 0, 0), side_length=5):
"""從給定的左下角點(最小的 x,y,z 值)開始創建一個立方體"""
bottom_lower = np.array(bottom_lower)
points = np.vstack([
bottom_lower,
bottom_lower + [0, side_length, 0],
bottom_lower + [side_length, side_length, 0],
bottom_lower + [side_length, 0, 0],
bottom_lower + [0, 0, side_length],
bottom_lower + [0, side_length, side_length],
bottom_lower + [side_length, side_length, side_length],
bottom_lower + [side_length, 0, side_length],
bottom_lower,
])
return points
```
現在讓我們把這些碎片放在一起,看看它是什么樣的:
```py
cube_1 = create_cube(side_length=2)
?
?
plot_basic_object(cube_1)
```

我只是在這里顯示一個圖像,但是你可以看到立方體,它已被我們的代碼變成三角形并且顏色不同(取決于`z`值)。 這很好,但現在讓我們使用 TensorFlow 對此進行一些操作。
### 平移
平移是一個簡單的動作:向上/向下,向左/向右,向前/向后,或這些的某種組合。 它是通過簡單地向每個點添加一個向量來創建的。 如果向所有點添加相同的向量,則整個對象將一致地移動。 查看我們關于廣播的章節,了解當我們將大小為`(3,)`的平移向量添加到大小`(n, 3)`的點矩陣時會發生什么。
```py
import tensorflow as tf
def translate(points, amount):
return tf.add(points, amount)
points = tf.constant(cube_1, dtype=tf.float32)
?
# 更新此處的值來移動多維數據集。
translation_amount = tf.constant([3, -3, 0], dtype=tf.float32)
translate_op = translate(points, translation_amount)
?
with tf.Session() as session:
translated_cube = session.run(translate_op)
plot_basic_object(translated_cube)
```

### 旋轉
通過創建點積或旋轉矩陣和原點來形成旋轉。 旋轉對象首先需要你確定要旋轉的軸。 要圍繞特定軸旋轉,請將該軸的值設置為 0,相關軸中的值為 1。 你需要三個矩陣:
### 沿`x`軸旋轉
```py
[[1, 0, 0],
[0, cos \theta, sin \theta],
[0, -sin \theta, cos \theta]]
```
### 沿`y`軸旋轉
```py
[[cos \theta, 0, -sin \theta],
[0, 1, 0],
[sin \theta, 0, cos \theta]]
```
### 沿`z`軸旋轉
```py
[[cos \theta, sin \theta, 0],
[-sin \theta, cos \theta, 0],
[0, 0, 1]]
```
```py
def rotate_around_z(points, theta):
theta = float(theta)
rotation_matrix = tf.stack([[tf.cos(theta), tf.sin(theta), 0],
[-tf.sin(theta), tf.cos(theta), 0],
[0, 0, 1]])
return tf.matmul(tf.to_float(points), tf.to_float(rotation_matrix))
with tf.Session() as session:
result = session.run(rotate_around_z(cube_1, 75))
plot_basic_object(result)
```

通過這些簡單,但是可以大規模組合的矩陣操作,你可以像這樣為 3D 對象創建一系列的變換。 此概念可以用于實現剪切,縮放,交叉等。 GPU 非常擅長進行這些轉換,這些轉換恰好與數據分析工作(如深度學習)所需的相同類型的轉換相關。 因此,TensorFlow 可以很好地配合 GPU,處理 3D 對象以及深度學習任務。
+ 創建不同的對象,例如四棱錐或者六棱柱。 如果你不確定如何開始,請先從棱柱開始,然后先在2D中創建它。
+ 圍繞`x`軸和`y`軸旋轉對象。
+ 你可以將旋轉組合到單個變換矩陣中。 為此,只需計算旋轉的點積。
+ 對于問題 3,順序是否重要?
+ 剪切矩陣是具有非對角線值的單位矩陣。 一個例子如下。 創建剪切矩陣并測試不同的值。
```py
[[1, 0.5, 0],
[0, 1, 0],
[0, 0, 1]]
```
## 線性模型的分類
在本課中,我們將了解使用 TensorFlow 進行機器學習。
我們將創建自己的線性分類器,并使用 TensorFlow 的內置優化算法來訓練它。
首先,我們將查看數據以及我們要做的事情。 對于那些剛接觸機器學習的人來說,我們嘗試執行的任務稱為監督機器學習或分類。
任務是嘗試計算一些輸入數據和輸出值之間的關系。 實際上,輸入數據可以是測量值,例如高度或重量,輸出值可以是預期的預測值,例如“cat”或“dog”。
這里的課程擴展自我們的課程“收斂”,在后面的章節中。 我建議你先完成那個課程。
讓我們創建并可視化一些數據:
```py
from sklearn.datasets import make_blobs
import numpy as np
from sklearn.preprocessing import OneHotEncoder
X_values, y_flat = make_blobs(n_features=2, n_samples=800, centers=3, random_state=500)
y = OneHotEncoder().fit_transform(y_flat.reshape(-1, 1)).todense()
y = np.array(y)
%matplotlib inline
from matplotlib import pyplot as plt
# 可選的行:將默認數字大小設置得稍大。
plt.rcParams['figure.figsize'] = (24, 10)
plt.scatter(X_values[:,0], X_values[:,1], c=y_flat, alpha=0.4, s=150)
```

在這里,我們有三種數據,黃色,藍色和紫色。 它們繪制在兩個維度上,我們稱之為`x0x0`和`x1x1`。
這些值存儲在`X`數組中。
當我們執行機器學習時,有必要將數據拆分為我們用于創建模型的訓練集和用于評估它的測試集。 如果我們不這樣做,那么我們可以簡單地創建一個“作弊分類器”,只記得我們的訓練數據。 通過拆分,我們的分類器必須學習輸入(繪圖上的位置)和輸出之間的關系。
```py
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test, y_train_flat, y_test_flat = train_test_split(X_values, y, y_flat)
X_test += np.random.randn(*X_test.shape) * 1.5
```
現在我們繪制測試數據。 從訓練數據中學習位置和顏色之間的關系之后,將給予分類器以下幾個點,并且將評估它對點著色的準確度。
```py
#plt.scatter(X_train[:,0], X_train[:,1], c=y_train_flat, alpha=0.3, s=150)
plt.plot(X_test[:,0], X_test[:,1], 'rx', markersize=20)
```

### 創建模型
我們的模型將是一個簡單的線性分類器。 這意味著它將在三種顏色之間繪制直線。 一條線上方的點被賦予一種顏色,而一條線下方的點被賦予另一種顏色。 我們將這些稱為決策直線,盡管它們通常被稱為決策邊界,因為其他模型可以學習比線更復雜的形狀。
為了在數學上表示我們的模型,我們使用以下等式:
```
?Y = XW + b
```
我們的權重`W`是`(n_features, n_classes)`矩陣,表示我們模型中的學習權重。 它決定了決策直線的位置。 `X`是`(n_rows, n_features)`矩陣,并且是位置數據 - 給定點位于圖上。 最后,`b`是`(1, n_classes)`向量,并且是偏差。 我們需要這樣,以便我們的線不必經過點`(0,0)`,使我們能夠在圖上的任何位置“繪制”直線。
`X`中的點是固定的 - 這些是訓練或測試數據,稱為觀測數據。 `W`和`b`的值是我們模型中的參數,我們可以控制這些值。 為這些值選擇好的值,可以為我們提供良好的決策線。
在我們的模型中為參數選擇好的值的過程,稱為訓練算法,并且是機器學習中的“學習”。
讓我們從上面得到我們的數學模型,并將其轉換為 TensorFlow 操作。
```py
import tensorflow as tf
n_features = X_values.shape[1]
n_classes = len(set(y_flat))
weights_shape = (n_features, n_classes)
W = tf.Variable(dtype=tf.float32, initial_value=tf.random_normal(weights_shape)) # Weights of the model
X = tf.placeholder(dtype=tf.float32)
Y_true = tf.placeholder(dtype=tf.float32)
bias_shape = (1, n_classes)
b = tf.Variable(dtype=tf.float32, initial_value=tf.random_normal(bias_shape))
Y_pred = tf.matmul(X, W) + b
```
上面的`Y_pred`張量代表我們的數學模型。通過傳入觀測數據(`X`),我們可以得到預期值,在我們的例子中,是給定點的預期顏色。請注意偏差使用廣播在所有預測中應用。
`Y_pred`中的實際值由“似然”組成,模型將為給定點選擇每個類的似然,生成`(n_rows, n_classes)`大小的矩陣。它們不是真正的似然,但我們可以通過找到最大值,來找出我們的模型認為的最有可能的類。
接下來,我們需要定義一個函數來評估給定權重集的好壞程度。請注意,我們尚未學習權重,只是給出了隨機值。 TensorFlow 具有內置的損失函數,可以接受預測的輸出的(即模型產生的值)與實際值(我們首次創建測試集時創建的真實情況)。我們比較它們,并評估我們的模型表現如何。我們稱之為損失函數,因為我們做得越差,值越高 - 我們試圖將損失最小化。
```py
loss_function = tf.losses.softmax_cross_entropy(Y_true, Y_pred)
```
最后一步是創建一個優化步驟,該步驟接受我們的損失函數,并找到給定變量的最小化損失的值。 請注意,`loss`函數引用`Y_true`,后者又引用`W`和`b`。 TensorFlow 選擇此關系,并更改這些變量中的值來尋找良好的值。
```py
learner = tf.train.GradientDescentOptimizer(0.1).minimize(loss_function)
```
現在開始訓練了!
我們在循環中遍歷學習器,來找到最佳權重。 每次循環中,前一循環的學習權重會在下一個循環中略有改善。 前一行代碼中的`0.1`是學習率。 如果增加該值,算法學得更快。 但是,較小的值通常會收斂到更好的值。 當你查看模型的其他方面時,值為`0.1`是一個很好的起點。
每次循環中,我們通過占位符將我們的訓練數據傳遞給學習器。 每隔 100 個循環,我們通過將測試數據直接傳遞給損失函數,來了解我們的模型是如何學習的。
```py
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for i in range(5000):
result = sess.run(learner, {X: X_train, Y_true: y_train})
if i % 100 == 0:
print("Iteration {}:\tLoss={:.6f}".format(i, sess.run(loss_function, {X: X_test, Y_true: y_test})))
y_pred = sess.run(Y_pred, {X: X_test})
W_final, b_final = sess.run([W, b])
predicted_y_values = np.argmax(y_pred, axis=1)
predicted_y_values
h = 1
x_min, x_max = X_values[:, 0].min() - 2 * h, X_values[:, 0].max() + 2 * h
y_min, y_max = X_values[:, 1].min() - 2 * h, X_values[:, 1].max() + 2 * h
x_0, x_1 = np.meshgrid(np.arange(x_min, x_max, h),
np.arange(y_min, y_max, h))
decision_points = np.c_[x_0.ravel(), x_1.ravel()]
```
有點復雜,但我們正在有效地創建一個二維網格,涵蓋`x0`和`x1`的可能值。
```py
# 我們在 NumPy 中重建我們的模型
Z = np.argmax(decision_points @ W_final[[0,1]] + b_final, axis=1)
# 創建 x_0 和 x_1 值的等高線圖
Z = Z.reshape(xx.shape)
plt.contourf(x_0, x_1, Z, alpha=0.1)
plt.scatter(X_train[:,0], X_train[:,1], c=y_train_flat, alpha=0.3)
plt.scatter(X_test[:,0], X_test[:,1], c=predicted_y_values, marker='x', s=200)
plt.xlim(x_0.min(), x_0.max())
plt.ylim(x_1.min(), x_1.max())
```

你就實現了它! 我們的模型會將黃色區域中的任何東西分類為黃色,依此類推。 如果覆蓋實際測試值(存儲在`y_test_flat`中),則可以高亮任何差異。
+ 繪制迭代和損失之間的關系。 出現什么樣的形狀,你認為它將如何繼續?
+ 使用 TensorBoard,將圖寫入文件,并查看 TensorBoard 中變量的值。 更多信息請參閱其余教程。
+ 通過在傳遞到線性模型之前對`X`執行一些變換來創建非線性模型。 這可以通過多種方式完成,你的模型的準確性將根據你的選擇而改變。
+ 使用以下代碼加載 64 維(稱為數字)的數據集,并將其傳遞給分類器。 你得到了什么預測準確度?
```py
from sklearn.datasets import load_digits
digits = load_digits()
X = digits.data
y = digits.target
```
- TensorFlow 1.x 深度學習秘籍
- 零、前言
- 一、TensorFlow 簡介
- 二、回歸
- 三、神經網絡:感知器
- 四、卷積神經網絡
- 五、高級卷積神經網絡
- 六、循環神經網絡
- 七、無監督學習
- 八、自編碼器
- 九、強化學習
- 十、移動計算
- 十一、生成模型和 CapsNet
- 十二、分布式 TensorFlow 和云深度學習
- 十三、AutoML 和學習如何學習(元學習)
- 十四、TensorFlow 處理單元
- 使用 TensorFlow 構建機器學習項目中文版
- 一、探索和轉換數據
- 二、聚類
- 三、線性回歸
- 四、邏輯回歸
- 五、簡單的前饋神經網絡
- 六、卷積神經網絡
- 七、循環神經網絡和 LSTM
- 八、深度神經網絡
- 九、大規模運行模型 -- GPU 和服務
- 十、庫安裝和其他提示
- TensorFlow 深度學習中文第二版
- 一、人工神經網絡
- 二、TensorFlow v1.6 的新功能是什么?
- 三、實現前饋神經網絡
- 四、CNN 實戰
- 五、使用 TensorFlow 實現自編碼器
- 六、RNN 和梯度消失或爆炸問題
- 七、TensorFlow GPU 配置
- 八、TFLearn
- 九、使用協同過濾的電影推薦
- 十、OpenAI Gym
- TensorFlow 深度學習實戰指南中文版
- 一、入門
- 二、深度神經網絡
- 三、卷積神經網絡
- 四、循環神經網絡介紹
- 五、總結
- 精通 TensorFlow 1.x
- 一、TensorFlow 101
- 二、TensorFlow 的高級庫
- 三、Keras 101
- 四、TensorFlow 中的經典機器學習
- 五、TensorFlow 和 Keras 中的神經網絡和 MLP
- 六、TensorFlow 和 Keras 中的 RNN
- 七、TensorFlow 和 Keras 中的用于時間序列數據的 RNN
- 八、TensorFlow 和 Keras 中的用于文本數據的 RNN
- 九、TensorFlow 和 Keras 中的 CNN
- 十、TensorFlow 和 Keras 中的自編碼器
- 十一、TF 服務:生產中的 TensorFlow 模型
- 十二、遷移學習和預訓練模型
- 十三、深度強化學習
- 十四、生成對抗網絡
- 十五、TensorFlow 集群的分布式模型
- 十六、移動和嵌入式平臺上的 TensorFlow 模型
- 十七、R 中的 TensorFlow 和 Keras
- 十八、調試 TensorFlow 模型
- 十九、張量處理單元
- TensorFlow 機器學習秘籍中文第二版
- 一、TensorFlow 入門
- 二、TensorFlow 的方式
- 三、線性回歸
- 四、支持向量機
- 五、最近鄰方法
- 六、神經網絡
- 七、自然語言處理
- 八、卷積神經網絡
- 九、循環神經網絡
- 十、將 TensorFlow 投入生產
- 十一、更多 TensorFlow
- 與 TensorFlow 的初次接觸
- 前言
- 1.?TensorFlow 基礎知識
- 2. TensorFlow 中的線性回歸
- 3. TensorFlow 中的聚類
- 4. TensorFlow 中的單層神經網絡
- 5. TensorFlow 中的多層神經網絡
- 6. 并行
- 后記
- TensorFlow 學習指南
- 一、基礎
- 二、線性模型
- 三、學習
- 四、分布式
- TensorFlow Rager 教程
- 一、如何使用 TensorFlow Eager 構建簡單的神經網絡
- 二、在 Eager 模式中使用指標
- 三、如何保存和恢復訓練模型
- 四、文本序列到 TFRecords
- 五、如何將原始圖片數據轉換為 TFRecords
- 六、如何使用 TensorFlow Eager 從 TFRecords 批量讀取數據
- 七、使用 TensorFlow Eager 構建用于情感識別的卷積神經網絡(CNN)
- 八、用于 TensorFlow Eager 序列分類的動態循壞神經網絡
- 九、用于 TensorFlow Eager 時間序列回歸的遞歸神經網絡
- TensorFlow 高效編程
- 圖嵌入綜述:問題,技術與應用
- 一、引言
- 三、圖嵌入的問題設定
- 四、圖嵌入技術
- 基于邊重構的優化問題
- 應用
- 基于深度學習的推薦系統:綜述和新視角
- 引言
- 基于深度學習的推薦:最先進的技術
- 基于卷積神經網絡的推薦
- 關于卷積神經網絡我們理解了什么
- 第1章概論
- 第2章多層網絡
- 2.1.4生成對抗網絡
- 2.2.1最近ConvNets演變中的關鍵架構
- 2.2.2走向ConvNet不變性
- 2.3時空卷積網絡
- 第3章了解ConvNets構建塊
- 3.2整改
- 3.3規范化
- 3.4匯集
- 第四章現狀
- 4.2打開問題
- 參考
- 機器學習超級復習筆記
- Python 遷移學習實用指南
- 零、前言
- 一、機器學習基礎
- 二、深度學習基礎
- 三、了解深度學習架構
- 四、遷移學習基礎
- 五、釋放遷移學習的力量
- 六、圖像識別與分類
- 七、文本文件分類
- 八、音頻事件識別與分類
- 九、DeepDream
- 十、自動圖像字幕生成器
- 十一、圖像著色
- 面向計算機視覺的深度學習
- 零、前言
- 一、入門
- 二、圖像分類
- 三、圖像檢索
- 四、對象檢測
- 五、語義分割
- 六、相似性學習
- 七、圖像字幕
- 八、生成模型
- 九、視頻分類
- 十、部署
- 深度學習快速參考
- 零、前言
- 一、深度學習的基礎
- 二、使用深度學習解決回歸問題
- 三、使用 TensorBoard 監控網絡訓練
- 四、使用深度學習解決二分類問題
- 五、使用 Keras 解決多分類問題
- 六、超參數優化
- 七、從頭開始訓練 CNN
- 八、將預訓練的 CNN 用于遷移學習
- 九、從頭開始訓練 RNN
- 十、使用詞嵌入從頭開始訓練 LSTM
- 十一、訓練 Seq2Seq 模型
- 十二、深度強化學習
- 十三、生成對抗網絡
- TensorFlow 2.0 快速入門指南
- 零、前言
- 第 1 部分:TensorFlow 2.00 Alpha 簡介
- 一、TensorFlow 2 簡介
- 二、Keras:TensorFlow 2 的高級 API
- 三、TensorFlow 2 和 ANN 技術
- 第 2 部分:TensorFlow 2.00 Alpha 中的監督和無監督學習
- 四、TensorFlow 2 和監督機器學習
- 五、TensorFlow 2 和無監督學習
- 第 3 部分:TensorFlow 2.00 Alpha 的神經網絡應用
- 六、使用 TensorFlow 2 識別圖像
- 七、TensorFlow 2 和神經風格遷移
- 八、TensorFlow 2 和循環神經網絡
- 九、TensorFlow 估計器和 TensorFlow HUB
- 十、從 tf1.12 轉換為 tf2
- TensorFlow 入門
- 零、前言
- 一、TensorFlow 基本概念
- 二、TensorFlow 數學運算
- 三、機器學習入門
- 四、神經網絡簡介
- 五、深度學習
- 六、TensorFlow GPU 編程和服務
- TensorFlow 卷積神經網絡實用指南
- 零、前言
- 一、TensorFlow 的設置和介紹
- 二、深度學習和卷積神經網絡
- 三、TensorFlow 中的圖像分類
- 四、目標檢測與分割
- 五、VGG,Inception,ResNet 和 MobileNets
- 六、自編碼器,變分自編碼器和生成對抗網絡
- 七、遷移學習
- 八、機器學習最佳實踐和故障排除
- 九、大規模訓練
- 十、參考文獻