<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                合規國際互聯網加速 OSASE為企業客戶提供高速穩定SD-WAN國際加速解決方案。 廣告
                [TOC] > [官網](https://huggingface.co/models?pipeline_tag=question-answering&sort=trending) > [官方快速入門](https://huggingface.co/docs/transformers/main/en/index) > [教程](http://fancyerii.github.io/2021/05/11/huggingface-transformers-1/#%E4%BD%BF%E7%94%A8pipeline) ## 概述 "Transformers" 是一個自然語言處理(NLP)領域的開源庫,用于處理和訓練基于變換器(Transformer)架構的深度學習模型。這個庫提供了一種簡單而強大的方式來使用和訓練各種NLP模型,包括BERT、GPT-2、RoBERTa、XLNet等等。"Transformers"庫由Hugging Face公司開發,并在NLP社區中廣受歡迎。 **這個庫的主要功能包括:** 1. **預訓練模型:** "Transformers"庫提供了大量的預訓練NLP模型,可以直接用于各種自然語言處理任務。這些模型在大型文本語料庫上進行了預訓練,具有出色的文本理解和生成能力。 2. **模型微調:** 你可以使用這些預訓練模型,通過微調來適應特定任務,例如文本分類、情感分析、命名實體識別等。這使得創建自定義NLP應用程序變得相對容易。 3. **文本生成:** "Transformers"庫允許你生成文本,如對話、摘要、翻譯等。你可以使用GPT-2等模型生成文本,也可以對生成的文本進行定制。 4. **模型解釋和可視化:** 該庫還提供了用于解釋和可視化NLP模型的工具,幫助你理解模型的決策過程。 5. **多語言支持:** "Transformers"庫支持多種語言,包括英語、中文、法語、德語等等,使其適用于全球范圍的NLP任務。 **特點** 它的設計原則包括: * 易用 * 只有[configuration](https://huggingface.co/transformers/main_classes/configuration.html),[models](https://huggingface.co/transformers/main_classes/model.html)和[tokenizer](https://huggingface.co/transformers/main_classes/tokenizer.html)三個主要類。 * 所有的模型都可以通過統一的from\_pretrained()函數來實現加載,transformers會處理下載、緩存和其它所有加載模型相關的細節。而所有這些模型都統一在[Hugging Face Models](https://huggingface.co/models)管理。 * 基于上面的三個類,提供更上層的pipeline和Trainer/TFTrainer,從而用更少的代碼實現模型的預測和微調。 * 因此它不是一個基礎的神經網絡庫來一步一步構造Transformer,而是把常見的Transformer模型封裝成一個building block,我們可以方便的在PyTorch或者TensorFlow里使用它。 * 盡量和原論文作者的實現一致 * 每個模型至少有一個例子實現和原論文類似的效果 * 盡量參考原論文的實現,因此有些代碼不會那么自然 ## 安裝 ``` pip install transformers datasets evaluate accelerate ``` 僅需 CPU 支持,在 tensorflow 和 pytorch 二選一,推薦 pytorch ``` pip install tensorflow // or pip install torch ``` 測試是否安裝成功 ``` python -c "from transformers import pipeline; print(pipeline('sentiment-analysis')('we love you'))" ``` ## 緩存設置 預訓練模型會被下載并本地緩存到`~/.cache/huggingface/hub`。這是由環境變量`TRANSFORMERS_CACHE`指定的默認目錄。在 Windows 上,默認目錄為`C:\Users\username\.cache\huggingface\hub`。你可以按照不同優先級改變下述環境變量,以指定不同的緩存目錄。 1. 環境變量(默認):`HUGGINGFACE_HUB_CACHE`或`TRANSFORMERS_CACHE`。 2. 環境變量`HF_HOME`。 3. 環境變量`XDG_CACHE_HOME`+`/huggingface`。 部分模型的 Hub 頁面中會包含很多文件,我們通常只需要下載模型對應的*config.json*和*pytorch\_model.bin*,以及分詞器對應的*tokenizer.json*、*tokenizer\_config.json*和*vocab.txt*。 ## 常用 pipeline | **任務** | **描述** | **模態** | **Pipeline** | | --- | --- | --- | --- | | 文本分類 | 為給定的文本序列分配一個標簽 | NLP | pipeline(task=“sentiment-analysis”) | | 文本生成 | 根據給定的提示生成文本 | NLP | pipeline(task=“text-generation”) | | 命名實體識別 | 為序列里的每個 token 分配一個標簽(人, 組織, 地址等等) | NLP | pipeline(task=“ner”) | | 問答系統 | 通過給定的上下文和問題, 在文本中提取答案 | NLP | pipeline(task=“question-answering”) | | 掩蓋填充 | 預測出正確的在序列中被掩蓋的token | NLP | pipeline(task=“fill-mask”) | | 文本摘要 | 為文本序列或文檔生成總結 | NLP | pipeline(task=“summarization”) | | 文本翻譯 | 將文本從一種語言翻譯為另一種語言 | NLP | pipeline(task=“translation”) | | 圖像分類 | 為圖像分配一個標簽 | Computer vision | pipeline(task=“image-classification”) | | 圖像分割 | 為圖像中每個獨立的像素分配標簽(支持語義、全景和實例分割) | Computer vision | pipeline(task=“image-segmentation”) | | 目標檢測 | 預測圖像中目標對象的邊界框和類別 | Computer vision | pipeline(task=“object-detection”) | | 音頻分類 | 給音頻文件分配一個標簽 | Audio | pipeline(task=“audio-classification”) | | 自動語音識別 | 將音頻文件中的語音提取為文本 | Audio | pipeline(task=“automatic-speech-recognition”) | | 視覺問答 | 給定一個圖像和一個問題,正確地回答有關圖像的問題 | Multimodal | pipeline(task=“vqa”) | 更多 pipeline 查看 https://huggingface.co/docs/transformers/v4.36.1/zh/main_classes/pipelines#transformers.DepthEstimationPipeline
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看