<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??一站式輕松地調用各大LLM模型接口,支持GPT4、智譜、豆包、星火、月之暗面及文生圖、文生視頻 廣告
                # 生成性對抗網絡 101 如下圖所示,Generative Adversarial Networks(通常稱為 GAN)有兩個同步工作模型,用于學習和訓練復雜數據,如圖像,視頻或音頻文件: ![](https://img.kancloud.cn/6e/90/6e90c5dad83e0c7650b6b7c45b6e2d80_363x539.png) 直觀地,生成器模型從隨機噪聲開始生成數據,但是慢慢地學習如何生成更真實的數據。生成器輸出和實際數據被饋送到判別器,該判別器學習如何區分假數據和真實數據。 因此,生成器和判別器都發揮對抗性游戲,其中生成器試圖通過生成盡可能真實的數據來欺騙判別器,并且判別器試圖不通過從真實數據中識別偽數據而被欺騙,因此判別器試圖最小化分類損失。兩個模型都以鎖步方式進行訓練。 在數學上,生成模型`G(z)`學習概率分布`p(z)`,使得判別器`D(G(z), x)`無法在概率分布`p(z)`和`p(x)`之間進行識別。 GAN 的目標函數可以通過下面描述值函數`V`的等式來描述,(來自 [https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf](https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf) ): ![](https://img.kancloud.cn/ab/49/ab49f5f34cf0e49b89f2a8430447dad5_5460x310.png) 可以在以下鏈接中找到 IAN Goodfellow 在 NIPS 2016 上關于 GAN 的開創性教程: [https://arxiv.org/pdf/1701.00160.pdf.](https://arxiv.org/pdf/1701.00160.pdf) 這個描述代表了一個簡單的 GAN(在文獻中也稱為香草 GAN),由 Goodfellow 在此鏈接提供的開創性論文中首次介紹: [https://arxiv.org/abs/1406.2661](https://arxiv.org/abs/1406.2661) 。從那時起,在基于 GAN 推導不同架構并將其應用于不同應用領域方面進行了大量研究。 例如,在條件 GAN 中,為生成器和判別器網絡提供標簽,使得條件 GAN 的目標函數可以通過以下描述值函數`V`的等式來描述: ![](https://img.kancloud.cn/6b/37/6b379128cb09314bd9a136680cf824af_5810x310.png) 描述條件 GAN 的原始論文位于以下鏈接: [https://arxiv.org/abs/1411.1784。](https://arxiv.org/abs/1411.1784) 應用中使用的其他幾種衍生產品及其原始論文,如文本到圖像,圖像合成,圖像標記,樣式轉移和圖像轉移等,如下表所示: | **GAN 衍生物** | **原始文件** | **演示申請** | | --- | --- | --- | | StackGAN | [https://arxiv.org/abs/1710.10916](https://arxiv.org/abs/1710.10916) | 文字到圖像 | | StackGAN ++ | [https://arxiv.org/abs/1612.03242](https://arxiv.org/abs/1612.03242) | 逼真的圖像合成 | | DCGAN | [https://arxiv.org/abs/1511.06434](https://arxiv.org/abs/1511.06434) | 圖像合成 | | HR-DCGAN | [https://arxiv.org/abs/1711.06491](https://arxiv.org/abs/1711.06491) | 高分辨率圖像合成 | | 有條件的 GAN | [https://arxiv.org/abs/1411.1784](https://arxiv.org/abs/1411.1784) | 圖像標記 | | InfoGAN | [https://arxiv.org/abs/1606.03657](https://arxiv.org/abs/1606.03657) | 風格識別 | | Wasserstein GAN | [https://arxiv.org/abs/1701.07875](https://arxiv.org/abs/1701.07875)[https://arxiv.org/abs/1704.00028](https://arxiv.org/abs/1704.00028) | 圖像生成 | | 耦合 GAN | [https://arxiv.org/abs/1606.07536](https://arxiv.org/abs/1606.07536) | 圖像轉換,域適應 | | BEGAN | [https://arxiv.org/abs/1703.10717](https://arxiv.org/abs/1703.10717) | Image Generation | | DiscoGAN | [https://arxiv.org/abs/1703.05192](https://arxiv.org/abs/1703.05192) | 風格轉移 | | CycleGAN | [https://arxiv.org/abs/1703.10593](https://arxiv.org/abs/1703.10593) | Style Transfer | 讓我們練習使用 MNIST 數據集創建一個簡單的 GAN。在本練習中,我們將使用以下函數將 MNIST 數據集標準化為介于[-1,+ 1]之間: ```py def norm(x): return (x-0.5)/0.5 ``` 我們還定義了 256 維的隨機噪聲,用于測試生成器模型: ```py n_z = 256 z_test = np.random.uniform(-1.0,1.0,size=[8,n_z]) ``` 顯示將在本章所有示例中使用的生成圖像的函數: ```py def display_images(images): for i in range(images.shape[0]): plt.subplot(1, 8, i + 1) plt.imshow(images[i]) plt.axis('off') plt.tight_layout() plt.show() ```
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看