<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                [TOC] > [官方離線模式教程](https://huggingface.co/docs/transformers/v4.40.2/zh/installation) ## 離線模式 由于 checkpoint 名稱加載方式需要連接網絡,因此在大部分情況下我們都會采用本地路徑的方式加載模型。 部分模型的 Hub 頁面中會包含很多文件,我們通常只需要下載模型對應的*config.json*和*pytorch\_model.bin*,以及分詞器對應的*tokenizer.json*、*tokenizer\_config.json*和*vocab.txt*。 ## 禁止檢測網絡,查詢更新環境變量 如果不想每次都去下載,使用變量,尤其是在局域網內使用時,可減少聯網檢查 ``` // 設置離線 export HF_DATASETS_OFFLINE=1 export TRANSFORMERS_OFFLINE=1 ``` ### 手動獲取離線時使用的模型和分詞器 ![](https://img.kancloud.cn/4c/4c/4c4c779ddd2fdd383dea8a41e6f59830_2618x1574.png) 手動下載模型相關文件到指定位置 ### 使用代碼下載到指定位置 方式一: **直接在下載時,指定緩存[推薦]** ``` tokenizer = AutoTokenizer.from_pretrained("wangrongsheng/MiniGPT-4-LLaMA", cache_dir="MiniGPT-4-LLaMA") model = AutoModel.from_pretrained("wangrongsheng/MiniGPT-4-LLaMA", cache_dir="MiniGPT-4-LLaMA") ``` 指定緩存位置為當前目錄下的`MiniGPT-4-LLaMA` 方式二: ``` from transformers import AutoTokenizer, AutoModelForSeq2SeqLM tokenizer = AutoTokenizer.from_pretrained("bigscience/T0_3B") model = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0_3B") tokenizer.save_pretrained("./your/path/bigscience_t0") model.save_pretrained("./your/path/bigscience_t0") ``` 之后即可在離線模式下使用了 ``` tokenizer = AutoTokenizer.from_pretrained("./your/path/bigscience_t0") model = AutoModel.from_pretrained("./your/path/bigscience_t0") ``` 方式三: **使用 huggingface_hub 下載** 安裝模塊 ``` python -m pip install huggingface_hub ``` 下載 ``` from huggingface_hub import hf_hub_download hf_hub_download(repo_id="bigscience/T0_3B", filename="config.json", cache_dir="./your/path/bigscience_t0") ``` 使用 ``` from transformers import AutoConfig config = AutoConfig.from_pretrained("./your/path/bigscience_t0/config.json") ``` 方式三四:**設置緩存的下載路徑** ``` set HF_HOME=./cache ```
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看