<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??一站式輕松地調用各大LLM模型接口,支持GPT4、智譜、豆包、星火、月之暗面及文生圖、文生視頻 廣告
                # 淺談機器學習中的轉換 > 原文: [https://machinelearningmastery.com/transduction-in-machine-learning/](https://machinelearningmastery.com/transduction-in-machine-learning/) 轉換或轉導學習是您在應用機器學習中可能遇到的術語。 該術語與循環神經網絡的一些應用一起用于序列預測問題,如自然語言處理領域中的一些問題。 在這篇文章中,您將了解機器學習中的轉換。 閱讀這篇文章后,你會知道: * 轉導的定義一般和某些特定的研究領域。 * 機器學習中的轉換學習是什么。 * 在談論序列預測問題時,什么轉換意味著什么。 讓我們開始吧。 ## 概觀 本教程分為 4 個部分;他們是: 1. 什么是轉導? 2. 轉化學習 3. 語言學中的轉導 4. 序列預測中的轉導 ## 什么是轉導? 讓我們從一些基本的字典定義開始。 轉換手段將某些東西轉換成另一種形式。 > 轉換:將(諸如能量或信息之類的東西)轉換成另一種形式,基本上感覺器官將物理能量轉換成神經信號 - [Merriam-Webster Dictionary](https://www.merriam-webster.com/dictionary/transduce) (在線),2017 它是電子和信號處理領域的一個流行術語,其中“_ 傳感器 _”是將聲音轉換為能量或反之亦然的組件或模塊的通用名稱。 > 所有信號處理都以輸入傳感器開始。輸入傳感器接收輸入信號并將其轉換為電信號。在信號處理應用中,換能器可以采用多種形式。輸入變換器的常見示例是麥克風。 - [數字信號處理揭秘](http://amzn.to/2h1xRKL),1997 在生物學,特別是遺傳學中,[轉導](https://en.wikipedia.org/wiki/Transduction_(genetics))是指將遺傳物質轉移到另一種微生物的微生物的過程。 > 轉導:轉導的作用或過程;特別是:通過病毒劑(如噬菌體)將遺傳物質從一種微生物轉移到另一種微生物 - [Merriam-Webster Dictionary](https://www.merriam-webster.com/dictionary/transduce) (在線),2017 因此,通常,我們可以看到轉換是關于將信號轉換為另一種形式。 信號處理描述是最突出的,其中聲波被轉換成電能以供系統內的某些使用。在一些選定的采樣水平下,每個聲音將由一些電子簽名表示。 ![Example of Signal Processing Transducer](img/a7fdf7a558cced56b016ee592383bb89.jpg) 信號處理傳感器示例 ## 轉化學習 在統計學習理論領域中使用轉導或轉導學習來指代給出來自域的特定實例的具體實例。 它與其他類型的學習形成對比,例如歸納學習和演繹學習。 > 歸納,從給定數據中導出函數。扣除,導出關注點的給定函數的值。轉換,從給定數據導出興趣點的未知函數的值。 - 第 169 頁,[統計學習理論的性質](http://amzn.to/2uvHt5a),1995 ![Relationship between Induction, Deduction and Transduction](img/1cdd9e2856b48f7ec6d40e932458610d.jpg) 從統計學習理論的本質看誘導,演繹和轉導 的關系。 這是一個有趣的監督學習框架,其中“_ 近似于數據的映射函數并使用它來進行預測 _”的經典問題被認為比所需要的更困難。相反,直接從域中的實際樣本進行特定預測。不需要函數逼近。 > 估計給定興趣點處的函數值的模型描述了推理的新概念:從特定到特定的移動。我們將這種類型的推理轉換推斷稱為。請注意,當想要從有限數量的信息中獲得最佳結果時,會出現這種推理概念。 - 第 169 頁,[統計學習理論的性質](http://amzn.to/2uvHt5a),1995 轉換算法的經典示例是 k-Nearest Neighbors 算法,其不對訓練數據建模,而是在每次需要預測時直接使用它。 > 轉換自然與一組稱為基于實例或基于案例的學習的算法相關。也許,這類中最著名的算法是 k-最近鄰算法。 - [通過轉導學習](https://arxiv.org/abs/1301.7375),1998 年 ## 語言學中的轉導 傳統上,在談論自然語言時,例如在語言學領域,已經使用了轉導。 例如,存在“_ 轉換語法 _”的概念,其指的是用于將一種語言的示例轉換成另一種語言的一組規則。 > 轉換語法描述了結構上相關的一對語言。它生成句子對,而不是句子。語言 1 句子(意圖是)語言-2 句子的翻譯。 - 第 460 頁,[自然語言處理手冊](http://amzn.to/2uyLkOI),2000。 還有來自計算理論的“[有限狀態傳感器](https://en.wikipedia.org/wiki/Finite-state_transducer)”(FST)的概念,在討論用于將一組符號映射到另一組符號的翻譯任務時調用。重要的是,每個輸入產生一個輸出。 > 有限狀態傳感器由許多狀態組成。當在狀態之間轉換時,消耗輸入符號并發出輸出符號。 - 第 294 頁,[統計機器翻譯](http://amzn.to/2tL8ZNi),2010。 在談論理論和經典機器翻譯時這種轉換的使用在談論現代序列預測與自然語言處理任務中的循環神經網絡時使用該術語。 ## 序列預測中的轉導 在他的語言處理神經網絡教科書中,Yoav Goldberg 將傳感器定義為 NLP 任務的特定網絡模型。 換能器被狹義地定義為為所提供的每個輸入時間步長輸出一個時間步長的模型。這映射到語言用法,特別是有限狀態傳感器。 > 另一種選擇是將 RNN 視為換能器,為其讀入的每個輸入產生輸出。 - 第 168 頁,[自然語言處理中的神經網絡方法](http://amzn.to/2h3Ondm),2017。 他提出了這種類型的序列標記模型以及語言建模。他接著指出,例如使用編碼器 - 解碼器架構的條件生成可以被認為是 RNN 換能器的特殊情況。 考慮到編碼器 - 解碼器模型架構中的解碼器允許給定輸入序列的不同數量的輸出,在定義中打破“每個輸入一個輸出”,這最后一點是令人驚訝的。 ![Transducer RNN Training Graph](img/e1835906e48453aec5c87a38757f20b5.jpg) 傳感器 RNN 訓練圖。 取自“自然語言處理中的神經網絡方法”。 更一般地,轉導用于 NLP 序列預測任務,特別是翻譯。這些定義似乎比 Goldberg 和 FST 嚴格的每輸入輸出更寬松。 例如,Ed Grefenstette,et al。將轉換描述為將輸入字符串映射到輸出字符串。 > 許多自然語言處理(NLP)任務可以被視為轉換問題,即學習將一個字符串轉換為另一個字符串。機器翻譯是轉換的典型示例,最近的結果表明 Deep RNN 能夠編碼長源字符串并產生連貫的翻譯 - [學習無限記憶的轉換](https://arxiv.org/abs/1506.02516),2015。 他們繼續提供一些特定的 NLP 任務列表,這些任務有助于使這個廣泛的定義具體化。 > 字符串轉換是 NLP 中許多應用的核心,從名稱音譯和拼寫校正到屈折形態和機器翻譯 Alex Graves 還使用轉換作為轉換的同義詞,并且有用地還提供了符合定義的示例 NLP 任務列表。 > 許多機器學習任務可以表示為輸入序列到輸出序列的轉換或轉換:語音識別,機器翻譯,蛋白質二級結構預測和文本到語音等等。 - [序列轉導與循環神經網絡](https://arxiv.org/abs/1211.3711),2012。 總而言之,我們可以重新列出一系列轉換自然語言處理任務,如下所示: * **音譯**,以源形式給出示例,以目標形式產生單詞。 * **拼寫糾正**,在給出錯誤的單詞拼寫時生成正確的單詞拼寫。 * **屈折形態學**,根據源序列和背景產生新的序列。 * **機器翻譯**,在源語言中給出示例,以目標語言生成單詞序列。 * **語音識別**,產生給定音頻序列的文本序列。 * **蛋白質二級結構預測**,預測給定氨基酸輸入序列(非 NLP)的 3D 結構。 * **文本到語音**,或語音合成,產生給定文本序列的音頻。 最后,除了涉及廣泛類別的 NLP 問題和 RNN 序列預測模型的轉導概念之外,一些新方法明確地被命名為這樣。 Navdeep Jaitly 等人。將他們新的 RNN 序列到序列預測方法稱為“_ 神經傳感器 _”,技術上用于序列到序列預測的 RNN 也是如此。 > 我們提出了一種神經傳感器,一種更通用的序列到序列學習模型。當輸入塊到達時,神經傳感器可以產生大塊的輸出(可能是零長度),從而滿足“在線”的條件。該模型通過使用實現序列到序列模型的換能器 RNN 為每個塊生成輸出。 - [神經傳感器](https://arxiv.org/abs/1511.04868),2016 ## 進一步閱讀 如果您要深入了解,本節將提供有關該主題的更多資源。 ### 定義 * [Merriam-Webster 字典定義轉導](https://www.merriam-webster.com/dictionary/transduce) * [數字信號處理揭秘](http://amzn.to/2h1xRKL),1997 * [維基百科上遺傳學的轉錄](https://en.wikipedia.org/wiki/Transduction_(genetics)) ### 學習理論 * [統計學習理論的性質](http://amzn.to/2uvHt5a),1995 * [通過轉導學習](https://arxiv.org/abs/1301.7375),1998 * [維基百科上的轉換(機器學習)](https://en.wikipedia.org/wiki/Transduction_(machine_learning)) ### 語言學 * [自然語言處理手冊](http://amzn.to/2uyLkOI),2000。 * [維基百科上的有限狀態傳感器](https://en.wikipedia.org/wiki/Finite-state_transducer) * [統計機器翻譯](http://amzn.to/2tL8ZNi),2010。 ### 序列預測 * [自然語言處理中的神經網絡方法](http://amzn.to/2h3Ondm),2017。 * [學習無限記憶的轉換](https://arxiv.org/abs/1506.02516),2015。 * [序列轉導與循環神經網絡](https://arxiv.org/abs/1211.3711),2012。 * [神經傳感器](https://arxiv.org/abs/1511.04868),2016 ## 摘要 在這篇文章中,您發現了應用機器學習中的轉換。 具體來說,你學到了: * 轉導的定義一般和某些特定的研究領域。 * 機器學習中的轉換學習是什么。 * 在談論序列預測問題時,什么轉換意味著什么。 你有任何問題嗎? 在下面的評論中提出您的問題,我會盡力回答。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看