<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                # 自編碼器類型 自編碼器架構可以在各種配置中找到,例如簡單自編碼器,稀疏自編碼器,去噪自編碼器和卷積自編碼器。 * **簡單自編碼器:**在簡單的自編碼器中,與輸入相比,隱藏層具有較少數量的節點或神經元。例如,在 MNIST 數據集中,784 個特征的輸入可以連接到 512 個節點的隱藏層或 256 個節點,其連接到 784 特征輸出層。因此,在訓練期間,僅由 256 個節點學習 784 個特征。 簡單自編碼器也稱為欠完整自編碼器。 簡單的自編碼器可以是單層或多層。通常,單層自編碼器在生產中表現不佳。多層自編碼器具有多個隱藏層,分為編碼器和解碼器分組。編碼器層將大量特征編碼為較少數量的神經元,然后解碼器層將學習的壓縮特征解碼回原始特征或減少數量的特征。多層自編碼器被稱為**棧式自編碼器** 。 * **稀疏自編碼器**:在稀疏自編碼器中,添加正則化項作為懲罰,因此,與簡單自編碼器相比,表示變得更稀疏。 * **去噪自編碼器**(DAE):在 DAE 架構中,輸入帶有隨機噪聲。 DAE 重新創建輸入并嘗試消除噪音。 DAE 中的損失函數將去噪重建輸出與原始未損壞輸入進行比較。 * **卷積自編碼器**(CAE):前面討論過的自編碼器使用全連接層,這種模式類似于多層感知機模型。我們也可以使用卷積層而不是完全連接或密集層。當我們使用卷積層來創建自編碼器時,它被稱為卷積自編碼器。作為一個例子,我們可以為 CAE 提供以下層: **輸入 - &gt;卷積 - &gt;池化 - &gt;卷積 - &gt;池化 - &gt;輸出 **第一組卷積和池化層充當編碼器,將高維輸入特征空間減少到低維特征空間。第二組卷積和池化層充當解碼器,將其轉換回高維特征空間。 * **變分自編碼器**(VAE):變分自編碼器架構是自編碼器領域的最新發展。 VAE 是一種生成模型,即它產生概率分布的參數,從中可以生成原始數據或與原始數據非常相似的數據。 在 VAE 中,編碼器將輸入樣本轉換為潛在空間中的參數,使用該參數對潛在點進行采樣。然后解碼器使用潛點重新生成原始輸入數據。因此,在 VAE 中學習的重點轉移到最大化輸入數據的概率,而不是試圖從輸入重建輸出。 現在讓我們在以下部分中在 TensorFlow 和 Keras 中構建自編碼器。我們將使用 MNIST 數據集來構建自編碼器。自編碼器將學習表示具有較少數量的神經元或特征的 MNIST 數據集的手寫數字。 您可以按照 Jupyter 筆記本中的代碼`ch-10_AutoEncoders_TF_and_Keras`。 像往常一樣,我們首先使用以下代碼讀取 MNIST 數據集: ```py from tensorflow.examples.tutorials.mnist.input_data import input_data dataset_home = os.path.join(datasetslib.datasets_root,'mnist') mnist = input_data.read_data_sets(dataset_home,one_hot=False) X_train = mnist.train.images X_test = mnist.test.images Y_train = mnist.train.labels Y_test = mnist.test.labels pixel_size = 28 ``` 我們從訓練和測試數據集中提取四個不同的圖像及其各自的標簽: ```py while True: train_images,train_labels = mnist.train.next_batch(4) if len(set(train_labels))==4: break while True: test_images,test_labels = mnist.test.next_batch(4) if len(set(test_labels))==4: break ``` 現在讓我們看看使用 MNIST 數據集構建自編碼器的代碼。 您可以按照 Jupyter 筆記本中的代碼`ch-10_AutoEncoders_TF_and_Keras`。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看