<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                > wget命令用來從指定的URL下載文件。wget非常穩定,它在帶寬很窄的情況下和不穩定網絡中有很強的適應性,如果是由于網絡的原因下載失敗,wget會不斷的嘗試,直到整個文件下載完畢。如果是服務器打斷下載過程,它會再次聯到服務器上從停止的地方繼續下載。這對從那些限定了鏈接時間的服務器上下載大文件非常有用。 #### 語法 #### wget(選項)(參數) #### 選項 -a<日志文件>:在指定的日志文件中記錄資料的執行過程; -A<后綴名>:指定要下載文件的后綴名,多個后綴名之間使用逗號進行分隔; -b:進行后臺的方式運行wget; -B<連接地址>:設置參考的連接地址的基地地址; -c:繼續執行上次終端的任務; -C<標志>:設置服務器數據塊功能標志on為激活,off為關閉,默認值為on; -d:調試模式運行指令; -D<域名列表>:設置順著的域名列表,域名之間用“,”分隔; -e<指令>:作為文件“.wgetrc”中的一部分執行指定的指令; -h:顯示指令幫助信息; -i<文件>:從指定文件獲取要下載的URL地址; -l<目錄列表>:設置順著的目錄列表,多個目錄用“,”分隔; -L:僅順著關聯的連接; -r:遞歸下載方式; -nc:文件存在時,下載文件不覆蓋原有文件; -nv:下載時只顯示更新和出錯信息,不顯示指令的詳細執行過程; -q:不顯示指令執行過程; -nh:不查詢主機名稱; -v:顯示詳細執行過程; -V:顯示版本信息; --passive-ftp:使用被動模式PASV連接FTP服務器; --follow-ftp:從HTML文件中下載FTP連接文件。 #### 參數 URL:下載指定的URL地址。 #### 實例 1. 使用wget下載單個文件 ~~~ wget http://www.linuxde.net/testfile.zip ~~~ 以下的例子是從網絡下載一個文件并保存在當前目錄,在下載的過程中會顯示進度條,包含(下載完成百分比,已經下載的字節,當前下載速度,剩余下載時間)。 2. 下載并以不同的文件名保存 ~~~ wget -O wordpress.zip http://www.linuxde.net/download.aspx?id=1080 ~~~ wget默認會以最后一個符合/的后面的字符來命令,對于動態鏈接的下載通常文件名會不正確。 錯誤:下面的例子會下載一個文件并以名稱download.aspx?id=1080保存: ~~~ wget http://www.linuxde.net/download?id=1 ~~~ 即使下載的文件是zip格式,它仍然以download.php?id=1080命令。 正確:為了解決這個問題,我們可以使用參數-O來指定一個文件名: ~~~ wget -O wordpress.zip http://www.linuxde.net/download.aspx?id=1080 ~~~ 3. wget限速下載 ~~~ wget --limit-rate=300k http://www.linuxde.net/testfile.zip ~~~ 當你執行wget的時候,它默認會占用全部可能的寬帶下載。但是當你準備下載一個大文件,而你還需要下載其它文件時就有必要限速了。 4. 使用wget斷點續傳 ~~~ wget -c http://www.linuxde.net/testfile.zip ~~~ 使用wget -c重新啟動下載中斷的文件,對于我們下載大文件時突然由于網絡等原因中斷非常有幫助,我們可以繼續接著下載而不是重新下載一個文件。需要繼續中斷的下載時可以使用`-c`參數。 5. 使用wget后臺下載 ~~~ wget -b http://www.linuxde.net/testfile.zip Continuing in background, pid 1840. Output will be written to `wget-log'. ~~~ 對于下載非常大的文件的時候,我們可以使用參數-b進行后臺下載,你可以使用以下命令來察看下載進度: ~~~ tail -f wget-log ~~~ 6. 偽裝代理名稱下載 ~~~ wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16" http://www.linuxde.net/testfile.zip ~~~ 有些網站能通過根據判斷代理名稱不是瀏覽器而拒絕你的下載請求。不過你可以通過--user-agent參數偽裝。 7. 測試下載鏈接 當你打算進行定時下載,你應該在預定時間測試下載鏈接是否有效。我們可以增加--spider參數進行檢查。 ~~~ wget --spider URL ~~~ 如果下載鏈接正確,將會顯示: ~~~ Spider mode enabled. Check if remote file exists. HTTP request sent, awaiting response... 200 OK Length: unspecified [text/html] Remote file exists and could contain further links, but recursion is disabled -- not retrieving. ~~~ 這保證了下載能在預定的時間進行,但當你給錯了一個鏈接,將會顯示如下錯誤: ~~~ wget --spider url Spider mode enabled. Check if remote file exists. HTTP request sent, awaiting response... 404 Not Found Remote file does not exist -- broken link!!! ~~~ 你可以在以下幾種情況下使用--spider參數: 定時下載之前進行檢查 間隔檢測網站是否可用 檢查網站頁面的死鏈接 8. 增加重試次數 ~~~ wget --tries=40 URL ~~~ 如果網絡有問題或下載一個大文件也有可能失敗。wget默認重試20次連接下載文件。如果需要,你可以使用--tries增加重試次數。 9. 下載多個文件 ~~~ wget -i filelist.txt ~~~ 首先,保存一份下載鏈接文件: cat > filelist.txt url1 url2 url3 url4 接著使用這個文件和參數-i下載。 10. 鏡像網站 ~~~ wget --mirror -p --convert-links -P ./LOCAL URL ~~~ 下載整個網站到本地。 ~~~ --miror開戶鏡像下載。 -p下載所有為了html頁面顯示正常的文件。 --convert-links下載后,轉換成本地的鏈接。 -P ./LOCAL保存所有文件和目錄到本地指定目錄。 ~~~ 11. 過濾指定格式下載 ~~~ wget --reject=gif ur ~~~ 下載一個網站,但你不希望下載圖片,可以使用這條命令。 把下載信息存入日志文件 ~~~ wget -o download.log URL ~~~ 不希望下載信息直接顯示在終端而是在一個日志文件,可以使用。 12. 限制總下載文件大小 ~~~ wget -Q5m -i filelist.txt ~~~ 當你想要下載的文件超過5M而退出下載,你可以使用。注意:這個參數對單個文件下載不起作用,只能遞歸下載時才有效。 13. 下載指定格式文件 ~~~ wget -r -A.pdf url ~~~ 可以在以下情況使用該功能: 下載一個網站的所有圖片。 下載一個網站的所有視頻。 下載一個網站的所有PDF文件。 14. FTP下載 ~~~ wget ftp-url wget --ftp-user=USERNAME --ftp-password=PASSWORD url ~~~ 可以使用wget來完成ftp鏈接的下載。 15. 使用wget匿名ftp下載: ~~~ wget ftp-url ~~~ 16. 使用wget用戶名和密碼認證的ftp下載: ~~~ wget --ftp-user=USERNAME --ftp-password=PASSWORD url ~~~
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看