日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

HDFS教程(02)- HDFS命令汇总

發布時間:2023/12/9 编程问答 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 HDFS教程(02)- HDFS命令汇总 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

  • 01 引言
  • 02 HDFS安裝
  • 03 HDFS命令匯總
    • 3.1 新增操作
      • 3.1.1 創建文件夾(mkdir命令)
      • 3.1.2 文件上傳(put命令)
      • 3.1.3 文件復制(cp命令)
      • 3.1.4 移動文件(mv命令)
      • 3.1.5 創建空文件(touchz命令)
    • 3.2 刪除操作
      • 3.2.1 刪除文件夾(rmdir命令)
      • 3.2.2 刪除文件(rm命令)
      • 3.2.3 清空回收站(expunge命令)
    • 3.3 查看操作
      • 3.3.1 獲取文件(get 命令)
      • 3.3.2 查看文件(ls、du、df、cat、tail 命令)
      • 3.3.3 文件檢查(test 命令)
      • 3.3.4 text文件(text 命令)
      • 3.3.5 路徑信息統計(stat 命令)
      • 3.3.6 文件校驗(checksum 命令)
      • 3.3.7 統計節點(count 命令)
      • 3.3.8 匹配指令(find 命令)
    • 3.4 修改操作
      • 3.4.1 修改擁有者(chown)
      • 3.4.2 修改所屬組(chgrp)
      • 3.4.3 修改文件權限(chown)
      • 3.4.4 修改文件副本系數(setrep)
      • 3.4.5 文件追加(appendToFile)
  • 05 文末

01 引言

在前面的教程,我們對HDFS有一個簡單的認識了,有興趣的同學可以參閱:

  • 《HDFS教程(01)- 初識HDFS》

本文主要簡介HDFS的安裝與命令的匯總。

02 HDFS安裝

因為HDFS是Hadoop的核心組件,所以安裝了Hadoop就相當于把HDFS安裝了,具體的安裝方式可以參考之前寫的博客《Mac下安裝Hadoop》,因為本人使用的是mac系統,所以這里只有mac版的安裝教程了,其實原理都差不多的。

03 HDFS命令匯總

3.1 新增操作

3.1.1 創建文件夾(mkdir命令)

# 創建一個abc目錄 hdfs dfs -mkdir /user/zhang/abc

3.1.2 文件上傳(put命令)

# 將client node中的NOTICE.txt文件 put 到hdfs的/user/zhang文件夾中 hdfs dfs -put NOTICE.txt /user/zhang# 如果文件存在,可以使用-f參數進行覆蓋 hdfs dfs -put -f NOTICE.txt /user/zhang

3.1.3 文件復制(cp命令)

copyFromLocal命令:

# 這個命令和put作用相同(如果存在`LCENSE.txt文件`,要進行覆蓋,加上`-f`參數,和put命令一樣) hdfs dfs -copyFromLocal LICENSE.txt /user/zhang

copyToLocal 命令:

# 復制hdfs的/user/zhang/test/README.txt文件到client node當前目錄 hdfs dfs -copyToLocal /user/zhang/test/README.txt # 如果需要復制到指定目錄 hdfs dfs -copyToLocal /user/zhang/test/README.txt /指定目錄

cp 命令:

# 將/user/zhang/NOTICE.txt 復制到 /user/zhang/test目錄 hdfs dfs -cp /user/zhang/NOTICE.txt /user/zhang/test

3.1.4 移動文件(mv命令)

hdfs dfs -mv 要移動的文件 目標文件夾目錄

3.1.5 創建空文件(touchz命令)

創建一個0字節的空文件。
格式:

touchz <path>

示例:

hdfs dfs -touchz /user/dataflair/dir2

3.2 刪除操作

3.2.1 刪除文件夾(rmdir命令)

# 刪除/user/zhang/demo目錄 hdfs dfs rmdir /user/zhang/demo

3.2.2 刪除文件(rm命令)

# 刪除/user/zhang/NOTICE.txt文件 hdfs dfs -rm /user/zhang/NOTICE.txt# 刪除/user/zhang/abc目錄 hdfs dfs -rm -r /user/zhang/abc

3.2.3 清空回收站(expunge命令)

hdfs dfs -expunge

3.3 查看操作

3.3.1 獲取文件(get 命令)

# 獲取hdfs中的/user/zhang/test/README.txt.gz文件,到client node當前目錄 hdfs dfs -get /user/zhang/test/README.txt.gz# 和copyToLocal命令一樣

3.3.2 查看文件(ls、du、df、cat、tail 命令)

ls 命令:

# 查看hdfs根目錄 hdfs dfs -ls /# 查看hdfs其它目錄(/user/zhang) hdfs dfs -ls /user/zhang

du 命令:

hdfs dfs -du /user/zhang# 將字節自動轉化成單位 hdfs dfs -du -h /user/zhang

df 命令:

# 查看根目錄磁盤空間 hdfs dfs -df /

cat 命令:

# 查看文件 hdfs dfs -cat /user/zhang/test/README.txt

tail 命令( 類似還有 head )

hdfs dfs -tail /user/zhang/test/README.txt

3.3.3 文件檢查(test 命令)

用于文件檢測操作,如果路徑存在,返回 1,如果是目錄返回 0。

格式:

hdfs dfs -test -[ezd] URI

選項:

-e 檢查文件是否存在。如果存在則返回0。 -z 檢查文件是否是0字節。如果是則返回0。 -d 如果路徑是個目錄,則返回1,否則返回0。

示例:

hdfs dfs -test -e sample hdfs dfs -test -z sample hdfs dfs -test -d sample

3.3.4 text文件(text 命令)

將源文件輸出為文本格式。允許的格式是 zip 和 TextRecordInputStream。
格式:

hdfs dfs -text <source>

示例:

hdfs dfs -text /user/dataflair/dir1/sample

3.3.5 路徑信息統計(stat 命令)

返回指定路徑統計信息。
格式:

hdfs dfs -stat path

示例:

hdfs dfs -stat /user/dataflair/dir1

3.3.6 文件校驗(checksum 命令)

返回文件的校驗和信息。

格式:

hadoop fs -checksum URI

示例:

hadoop fs -checksum /user/dataflair/dir1/sample

3.3.7 統計節點(count 命令)

統計一個指定目錄下的文件結點數量。
格式:

hdfs dfs -count [-q] <paths>

示例:

$ hadoop fs -count /testelephant2 1 108 testelephant
  • 第一個數值 2 表示 /testelephant 下的文件夾的個數,
  • 第二個數值 1 表是當前文件夾下文件的個數,
  • 第三個數值 108 表示該文件夾下文件所占的空間大小,這個大小是不計算副本的個數的,單位是字節(byte)。
$ hadoop fs -count -q /sunwg1024 1021 10240 10132 2 1 108 /testelephant

在 count 后面增加 -q 選項可以查看當前文件夾的限額使用情況。

  • 第一個數值 1024 ,表示總的文件包括文件夾的限額。
  • 第二個數值 1021 ,表示目前剩余的文件限額,即還可以創建這么多的文件或文件夾。
  • 第三個數值 10240 ,表示當前文件夾空間的限額。
  • 第四個數值 10132 ,表示當前文件夾可用空間的大小,這個限額是會計算多個副本的。
  • 剩下的三個數值與 -count 的結果一樣。

3.3.8 匹配指令(find 命令)

找出能匹配上的所有文件。

-name pattern不區分大小寫,對大小寫不敏感。 -iname pattern對大小寫敏感。 -print打印。 -print0打印在一行。

格式:

hadoop fs -find <path> ... <expression> ...

示例:

hadoop fs -find /user/dataflair/dir1/ -name sample -print

3.4 修改操作

3.4.1 修改擁有者(chown)

改變文件的擁有者。使用-R將使改變在目錄結構下遞歸進行。命令的使用者必須是超級用戶。

格式:

hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

示例:

hdfs dfs -chown -R dataflair /opt/hadoop/logs

3.4.2 修改所屬組(chgrp)

改變文件所屬的組。使用-R將使改變在目錄結構下遞歸進行。命令的使用者必須是文件的所有者或者超級用戶。

格式:

hdfs dfs -chgrp [-R] <NewGroupName> <file or directory name>

示例:

hdfs dfs -chgrp [-R] New Group sample

3.4.3 修改文件權限(chown)

改變文件的權限。使用-R將使改變在目錄結構下遞歸進行。命令的使用者必須是文件的所有者或者超級用戶。

格式:

chmod [-R] mode,mode,... <path>...

示例:

hdfs dfs -chmod 777 /user/dataflair/dir1/sample

3.4.4 修改文件副本系數(setrep)

改變一個文件的副本系數,-R 選項用于遞歸改變目錄下所有文件的副本系數。
格式:

setrep [-R] [-w] rep <path>

示例:

hdfs dfs -setrep -w 3 /user/dataflair/dir1

3.4.5 文件追加(appendToFile)

追加一個文件到已經存在的文件末尾

格式:

hadoop fs -appendToFile <localsource> ... <dst>

示例:

hadoop fs -appendToFile /home/dataflair/Desktop/sample /user/dataflair/dir1

05 文末

本文主要講解的是HDFS的命令,歡迎大家的閱讀,本文完!

總結

以上是生活随笔為你收集整理的HDFS教程(02)- HDFS命令汇总的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。