<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                [TOC] # 命令行 HDFS命令行客戶端使用 HDFS提供shell命令行客戶端,使用方法如下: 可以使用一下兩種形式: ~~~ hadoop fs -… <args> hdfs dfs -… <args> ~~~ ## hadoop fs、hadoop dfs與hdfs dfs命令的區別 Hadoop fs:使用面最廣,可以操作任何文件系統 hadoop dfs與hdfs dfs:只能操作HDFS文件系統相關(包括與Local FS間的操作),前者已經Deprecated,一般使用后者 ## 命令行參數 ~~~ [-appendToFile <localsrc> ... <dst>] [-cat [-ignoreCrc] <src> ...] [-checksum <src> ...] [-chgrp [-R] GROUP PATH...] [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...] [-chown [-R] [OWNER][:[GROUP]] PATH...] [-copyFromLocal [-f] [-p] <localsrc> ... <dst>] [-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>] [-count [-q] <path> ...] [-cp [-f] [-p] <src> ... <dst>] [-createSnapshot <snapshotDir> [<snapshotName>]] [-deleteSnapshot <snapshotDir> <snapshotName>] [-df [-h] [<path> ...]] [-du [-s] [-h] <path> ...] [-expunge] [-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>] [-getfacl [-R] <path>] [-getmerge [-nl] <src> <localdst>] [-help [cmd ...]] [-ls [-d] [-h] [-R] [<path> ...]] [-mkdir [-p] <path> ...] [-moveFromLocal <localsrc> ... <dst>] [-moveToLocal <src> <localdst>] [-mv <src> ... <dst>] [-put [-f] [-p] <localsrc> ... <dst>] [-renameSnapshot <snapshotDir> <oldName> <newName>] [-rm [-f] [-r|-R] [-skipTrash] <src> ...] [-rmdir [--ignore-fail-on-non-empty] <dir> ...] [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]] [-setrep [-R] [-w] <rep> <path> ...] [-stat [format] <path> ...] [-tail [-f] <file>] [-test -[defsz] <path>] [-text [-ignoreCrc] <src> ...] [-touchz <path> ...] [-usage [cmd ...]] ~~~ ## 常用命令行參數介紹 ### 查 ~~~ -help 功能:輸出這個命令參數手冊 ~~~ ~~~ -ls 功能:顯示目錄信息 示例: hadoop fs -ls hdfs://hadoop-server01:9000/ 備注:這些參數中,所有的hdfs路徑都可以簡寫 -->hadoop fs -ls / 等同于上一條命令的效果 -lsr 遞歸查看 ~~~ ~~~ -cat 功能:顯示文件內容 hadoop fs -cat /hello.txt ~~~ ~~~ -tail 功能:顯示一個文件的末尾 hadoop fs -tail /weblog/access_log.1 ~~~ ~~~ -text 功能:以字符形式打印一個文件的內容 hadoop fs -text /weblog/access_log.1 ~~~ ~~~ -df 功能:統計文件系統的可用空間信息 hadoop fs -df -h / -du 功能:統計文件夾的大小信息 hadoop fs -du -s -h /aaa/* -count 功能:統計一個指定目錄下的文件節點數量 hadoop fs -count /aaa/ ~~~ ~~~ hdfs dfsadmin -report 查看dfs集群工作狀態的命令 ~~~ ### 增 ~~~ -mkdir 功能:在hdfs上創建目錄 hadoop fs -mkdir -p /aaa/bbb/cc/dd ~~~ ~~~ -copyFromLocal 功能:從本地文件系統中拷貝文件到hdfs路徑去 hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/ -copyToLocal 功能:從hdfs拷貝到本地 hadoop fs -copyToLocal /aaa/jdk.tar.gz -cp 功能:從hdfs的一個路徑拷貝hdfs的另一個路徑 hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2 ~~~ ~~~ -get 功能:等同于copyToLocal,就是從hdfs下載文件到本地 hadoop fs -get /aaa/jdk.tar.gz ~~~ ~~~ -getmerge 功能:合并下載多個文件 比getmerge 如hdfs的目錄 /aaa/下有多個文件:log.1, log.2,log.3,... hadoop fs -getmerge /aaa/log.* ./log.sum ~~~ ~~~ -put 功能:等同于copyFromLocal hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2 ~~~ ### 改 ~~~ --appendToFile 功能:追加一個文件到已經存在的文件末尾 hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt 可以簡寫為: Hadoop fs -appendToFile ./hello.txt /hello.txt ~~~ ~~~ -chgrp -chmod -chown 功能:linux文件系統中的用法一樣,對文件所屬權限 hadoop fs -chmod 666 /hello.txt hadoop fs -chown someuser:somegrp /hello.txt hadoop fs -ls / 這個查權限,權限所屬者是linux上的用戶,組是hadoop中的 ~~~ ~~~ -moveFromLocal 功能:從本地剪切粘貼到hdfs hadoop fs - moveFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd -moveToLocal 功能:從hdfs剪切粘貼到本地 hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt ~~~ ~~~ -mv 功能:在hdfs目錄中移動文件 hadoop fs -mv /aaa/jdk.tar.gz / ~~~ ~~~ -setrep 功能:設置hdfs中文件的副本數量 設置文件的副本數為3 hadoop fs -setrep 3 /aaa/jdk.tar.gz ~~~ ### 刪 ~~~ -rm 功能:刪除文件或文件夾 hadoop fs -rm -r /aaa/bbb/ -rmdir 功能:刪除空目錄 hadoop fs -rmdir /aaa/bbb/ccc ~~~ ## acl權限 首先在hdfs-site.xml中配置 ~~~ dfs.namenode.acls.enabled ~~~ 用hdfs的shell命令 ~~~ hdfs dfs -setfacl -m user:bufdata:rw- /data ~~~ 類似linux命令 ~~~ hadoop fs -chmod XX hadoop fs -chown someuser:someuser xx ~~~
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看