日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hive中操作hdfs命令

發布時間:2023/12/9 编程问答 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hive中操作hdfs命令 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

版本:Hadoop 2.7.4

– 查看dfs幫助信息
[root@hadp-master sbin]# dfs
Usage: dfs [generic options]
[-appendToFile … ]
[-cat [-ignoreCrc] …]
[-checksum …]
[-chgrp [-R] GROUP PATH…]
[-chmod [-R] <MODE[,MODE]… | OCTALMODE> PATH…]
[-chown [-R] [OWNER][:[GROUP]] PATH…]
[-copyFromLocal [-f] [-p] [-l] … ]
[-copyToLocal [-p] [-ignoreCrc] [-crc] … ]
[-count [-q] [-h] …]
[-cp [-f] [-p | -p[topax]] … ]
[-createSnapshot []]
[-deleteSnapshot ]
[-df [-h] […]]
[-du [-s] [-h] …]
[-expunge]
[-find … …]
[-get [-p] [-ignoreCrc] [-crc] … ]
[-getfacl [-R] ]
[-getfattr [-R] {-n name | -d} [-e en] ]
[-getmerge [-nl] ]
[-help [cmd …]]
[-ls [-d] [-h] [-R] […]]
[-mkdir [-p] …]
[-moveFromLocal … ]
[-moveToLocal ]
[-mv … ]
[-put [-f] [-p] [-l] … ]
[-renameSnapshot ]
[-rm [-f] [-r|-R] [-skipTrash] …]
[-rmdir [–ignore-fail-on-non-empty]

…]
[-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} ]|[–set <acl_spec> ]]
[-setfattr {-n name [-v value] | -x name} ]
[-setrep [-R] [-w] …]
[-stat [format] …]
[-tail [-f] ]
[-test -[defsz] ]
[-text [-ignoreCrc] …]
[-touchz …]
[-truncate [-w] …]
[-usage [cmd …]]

注意:

以下指令均是在,Linux 命令行窗口界面操作。
[ ]表示可選參數,<>表示必須參數。
開始使用命令前,必須啟動Hadoop
(1)-appendToFile

用法: dfs -appendToFile …

作用:是將一個或者多個文件添加到HDFS系統中。

示例:

dfs -appendToFile localfile /user/hadoop/hadoopfile
dfs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile
dfs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile
dfs -appendToFile - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.
  
(2)-cat

用法:dfs -cat URI [URI …]

作用:查看文件內容(可以查看本地和HDFS上的內容)。

示例:

dfs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
dfs -cat file:///file3 /user/hadoop/file4

(3)-checksum

用法: dfs -checksum URI

作用:查看校驗碼信息。(例子顯示了MD5)

示例:

dfs -checksum hdfs://nn1.example.com/file1
dfs -checksum file:///etc/hosts
  
(4)-chgrp

用法: dfs -chgrp [-R] GROUP URI [URI …]

作用:改變文件所屬的組。(Change group association of files.)

使用-R 將使改變在目錄結構下遞歸進行。

(5)-chmod

作用:改變文件訪問權限。

用法:dfs -chmod [-R] <MODE[,MODE]… | OCTALMODE> URI [URI …]

這里可以參考 Linux下文件系統的chmod的用法,基本類似。

(6)-chown

作用:dfs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

用法:改變文件的所有者。使用-R 將使改變在目錄結構下遞歸進行。命令的使用者必須是超級用戶。

(7)-copyFromLocal

用法:dfs -copyFromLocal URI

作用:類似于put命令,和put不同的是,拷貝的源地址必須是本地文件地址。

-f 參數 當拷貝的目標文件存在時,進行覆蓋。

示例:

[root@two1 fanrui]# dfs -copyFromLocal testFlatMap.txt /1.txt
copyFromLocal: `/1.txt’: File exists
  
這個時候加上-f參數。即可覆蓋。

[root@two1 fanrui]# dfs -copyFromLocal -f testFlatMap.txt /1.txt

(8)-copyToLocal

用法: dfs -copyToLocal [-ignorecrc] [-crc] URI

作用:類似于get指令。和get不同的是,拷貝的目的地址必須是本地文件地址。

(9)-count

作用:計算paths下的目錄數,文件數和字節數。

用法: dfs -count [-q] [-h] [-v]

dfs -count hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
dfs -count -q hdfs://nn1.example.com/file1
dfs -count -q -h hdfs://nn1.example.com/file1
hdfs dfs -count -q -h -v hdfs://nn1.example.com/file1
  
(10)-cp
用法:dfs -cp [-f] [-p | -p[topax]] URI [URI …]
作用:拷貝,HDFS文件系統中進行的拷貝操作。
-f 參數選項:當文件存在時,進行覆蓋。
-p 參數選項:將權限、所屬組、時間戳、ACL以及XAttr等也進行拷貝。下面是官網的描述。

The -p option will preserve file attributes [topx] (timestamps, ownership, permission, ACL, XAttr). If -p is specified with no arg, then preserves timestamps, ownership, permission. If -pa is specified, then preserves permission also because ACL is a super-set of permission. Determination of whether raw namespace extended attributes are preserved is independent of the -p flag.

示例:

[root@two1 fanrui]# dfs -cp -p /tmp/fan /tmp/fan1
  
(11)-df
用法:dfs -df [-h] URI [URI …]
作用:顯示剩余空間。
示例:

[root@two1 fanrui]# dfs -df /
Filesystem Size Used Available Use%
hdfs://localhost:9000 37626667008 311296 24792702976 0%

(12)-dus
作用:顯示文件長度概要。該方法已經被舍去,等價于 -du -s 方法。見(11)

(13)-expunge
作用:從垃圾桶目錄永久刪除超過保留閾值的檢查點中的文件,并創建新檢查點。

用法:dfs -expunge

(14)-find
作用:查找滿足表達式的文件和文件夾。沒有配置path的話,默認的就是全部目錄/;如果表達式沒有配置,則默認為-print。
用法: dfs -find … …
-name pattern 所要查找文件的文件名。
-iname pattern 所要查找的文件名,不區分大小寫。
-print 打印。
-print0 打印在一行,如下圖所示。

示例:

dfs -find / -name test -print
  
(15)-get
作用:從HDFS上拷貝文件到本地。
用法:dfs -get [-ignorecrc] [-crc]
示例:

dfs -get /user/hadoop/file localfile
dfs -get hdfs://nn.example.com/user/hadoop/file localfile

(16)getfacl

作用:顯示文件和文件夾的ACLs(Access Control Lists)。如果目錄有默認的ACL,則顯示之。
-R參數:遞歸顯示。
用法:

dfs -getfacl [-R]

Options:

-R: List the ACLs of all files and directories recursively.
path: File or directory to list.
示例:

dfs -getfacl /file
dfs -getfacl -R /dir
  
Exit Code:

Returns 0 on success and non-zero on error.

(17)getfattr

作用:顯示文件或目錄的擴展屬性名和值(如果有的話)

用法:dfs -getfattr [-R] -n name | -d [-e en]

Options:

-R:遞歸顯示文件夾和文件。
-n name:轉儲命名的擴展屬性值。
-d:轉儲與路徑名相關聯的所有擴展屬性值。
-e en: 檢索后的值進行編碼。 有效的編碼是 “text”, “hex”, and “base64”. 值編碼作為文本字符串是用雙引號括起來的(“),值編碼作為16進制和64進制,前綴分別為 0x 和 0s。
path:文件或文件夾路徑。

示例:

dfs -getfattr -d /file
dfs -getfattr -R -n user.myAttr /dir
  
(18)-getmerge
作用:是將HDFS上一個目錄中所有的文件合并到一起輸出到一個本地文件上。
用法:dfs -getmerge [-nl]

示例:

dfs -getmerge -nl /src /opt/output.txt
dfs -getmerge -nl /src/file1.txt /src/file2.txt /output.txt
  
(19)-help
作用:幫助文檔

用法:dfs -help

(20)-ls
作用:查看文件,與linux下ls命令基本類似。
用法:dfs -ls [-d] [-h] [-R]
選項:
-d:只展示查詢展示目錄;

-h:顯示為人眼更易識別的單位(原來是字節)。

-R:遞歸展示,顯示所有的文件夾及文件

示例:

dfs -ls -d /
dfs -ls -h /
dfs -ls -R /
  
-lsr
作用:已經被舍去,效果等同于-ls -R

(21)-mkdir
作用:創建文件夾。

用法:dfs -mkdir [-p]
選項:
-p:創建父目錄。類似于Unix的mkdir -p命令。
示例:

dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
dfs -mkdir hdfs://nn1.example.com/user/hadoop/dir hdfs://nn2.example.com/user/hadoop/dir
  
(22)-moveFromLocal
用法:dfs -moveFromLocal
作用:類似于put命令,不同put命令的是,該操作是移動(意思就是localsrc將被刪除)。localsrc應是本地文件。

(23)-moveToLocal
用法:dfs -moveToLocal [-crc]
作用:該命令尚未實現,顯示“Not implemented yet”。

(24)-mv
用法:移動文件。
作用: dfs -mv URI [URI …]
示例:

dfs -mv /user/hadoop/file1 /user/hadoop/file2
dfs -mv hdfs://nn.example.com/file1 hdfs://nn.example.com/file2 hdfs://nn.example.com/file3 hdfs://nn.example.com/dir1

(25)-put
用法: dfs -put …
作用:將本地的文件上傳(復制)到HDFS是dst目錄下。

示例:

dfs -put localfile /user/hadoop/hadoopfile
dfs -put localfile1 localfile2 /user/hadoop/hadoopdir
dfs -put localfile hdfs://nn.example.com/hadoop/hadoopfile
dfs -put - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.
  
(26)-rm
用法:dfs -rm [-f] [-r |-R] [-skipTrash] URI [URI …]
作用:刪除文件。
選項:

The -f option will not display a diagnostic message or modify the exit status to reflect an error if the file does not exist.
The -R option deletes the directory and any content under it recursively.
The -r option is equivalent to -R.
The -skipTrash option will bypass trash, if enabled, and delete the specified file(s) immediately. This can be useful when it is necessary to delete files from an over-quota directory.

示例:

dfs -rm hdfs://nn.example.com/file /user/hadoop/emptydir

(27)-rmdir
用法:dfs -rmdir [–ignore-fail-on-non-empty] URI [URI …]
作用:刪除空目錄。
選項:
—ignore-fail-on-non-empty:使用它的時候,忽略因文件夾非空刪除失敗的信息。

(28)-rmr
作用:該方法已經被舍去。和-rm -r效果一樣。遞歸刪除。

(29)-setfacl
用法:dfs -setfacl [-R] [-b |-k -m |-x <acl_spec> ] |[–set <acl_spec> ]
作用:設置訪問控制列表(ACL)的文件和目錄。

選項:

-b:移除所有除了基本的ACL條目。用戶、組和其他的條目被保留為與權限位的兼容性。
-k:刪除默認的ACL。
-R: 遞歸應用于所有文件和目錄的操作。
-m:修改ACL。新的項目添加到ACL,并保留現有的條目。
-x:刪除指定的ACL條目。其他保留ACL條目。
–set:完全替換ACL,丟棄所有現有的條目。acl_spec必須包括用戶,組,和其他有權限位的兼容性。
acl_spec:逗號分隔的ACL條目列表。
path:修改文件或目錄。

示例:

dfs -setfacl -m user:hadoop:rw- /file
dfs -setfacl -x user:hadoop /file
dfs -setfacl -b /file
dfs -setfacl -k /dir
dfs -setfacl --set user::rw-,user:hadoop:rw-,group::r–,other::r-- /file
dfs -setfacl -R -m user:hadoop:r-x /dir
dfs -setfacl -m default:user:hadoop:r-x /dir
  
(30)-setrep
用法:dfs -setrep [-R] [-w]
作用:改變文件的目標副本系數,放入REP中。選項-R將遞歸的改變PATH指定的目錄中所有文件的目標副本系數。副本系數需要一定的時間才能達到目標值。選項-w將等待副本系數以與目標值相匹配。

示例:

dfs -setrep -w 3 /user/hadoop/dir1
  
(31)-stat
用法: dfs -stat [format] …
作用:根據一定格式打印文件/文件夾的統計信息。 文件大小 (%b), 類型 (%F), 所有者所在組 (%g), 名字 (%n), 塊大小 (%o), 副本 (%r), 用戶名(%u), 修改時間 (%y, %Y)。默認的是%y。
示例:
dfs -stat “%F %u:%g %b %y %n” /file

(32)-tail
用法:dfs -tail [-f] URI
作用:輸出文件最后1kb的內容。
選項:
-f:和unix中tail -f命令類似,當文件內容更新時,輸出將會改變,具有實時性。

示例:用一個場景測試下。首先HDFS的/目錄下有文件mpwtest1.txt
命令:dfs -tail -f /mpwtest1.txt
開啟另外一個終端。輸入命令: dfs -appendToFile mpwtest2.txt /mpwtest1.txt
可以發現 窗口1 有變化。

(33)-test

作用:判斷文件信息

用法:dfs -test -[defsz] URI

選項:

-d:如果路徑是一個目錄,返回0
-e:如果路徑已經存在,返回0
-f: 如果路徑是一個文件,返回0
-s:如果路徑不是空,返回0
-z:如果文件長度為0,返回0
URI:資源地址,可以是文件也可以是目錄。

示例:

dfs -test -e filename

(34)-text
用法:dfs -text
作用:將HDFS中文件以文本形式輸出(包括zip包,jar包等形式)
示例:dfs -text /wc.jar

(35)-touchz
用法: dfs -touchz URI [URI …]
作用:創建一個空文件。
示例:dfs -touchz /hello.jar

(35)-truncate
用法: dfs -truncate [-w]

作用:截斷指定長度匹配的所有文件內容。

選項:

-w:需要等待命令完成塊恢復。如果沒有-w選項,在恢復的過程中可能是未閉合的。
length:截斷處的值,如果是100,則表示在100B處截斷。
paths:文件地址。

示例:

dfs -truncate 55 /user/hadoop/file1 /user/hadoop/file2
dfs -truncate -w 127 hdfs://nn1.example.com/user/hadoop/file1

(36)-usage
用法: dfs -usage command
作用:返回命令的help信息。

總結

以上是生活随笔為你收集整理的hive中操作hdfs命令的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。