HDFS相关命令有哪些?

2021-06-28 19:25发布

14条回答
yuixan
2楼 · 2021-06-29 09:24

基本语法:


bin/hadoop fs 具体命令


常用命令:


1) 启动Hadoop集群


[root@node1 hadoop-2.7.2]$ sbin/start-dfs.sh


[root@ node2 hadoop-2.7.2]$ sbin/start-yarn.sh


1) -help:输出这个命令参数


[root@node1 hadoop-2.7.2]$ hadoop fs -help rm


2) -ls: 显示目录信息


[root@node1 hadoop-2.7.2]$ hadoop fs -ls /


3) -mkdir:在hdfs上创建目录


[root@node1 hadoop-2.7.2]$ hadoop fs -mkdir -p /d1/d11


4) -moveFromLocal从本地剪切粘贴到hdfs


[root@node1 hadoop-2.7.2]$ touch t1.txt


[root@node1 hadoop-2.7.2]$ hadoop fs -moveFromLocal ./t1.txt /d1/d11


5) -appendToFile :追加一个文件到已经存在的文件末尾


[root@node1 hadoop-2.7.2]$ touch t2.txt


[root@node1 hadoop-2.7.2]$ vim t2.txt


输入


Good morning!


[root@node2 hadoop-2.7.2]$ Hadoop fs -appendToFile t1.txt /d1/d11/t2.txt


6) -cat:显示文件内容


[root@node1 hadoop-2.7.2]$ hadoop fs -cat /d1/d11/t1.txt


7) -tail:显示一个文件的末尾


[root@node1 hadoop-2.7.2]$ hadoop fs -tail /d1/d11/t1.txt


8) -chgrp 、-chmod、-chown:linux文件系统中的用法一样,修改文件所属权限


[root@node1 hadoop-2.7.2]$ hadoop fs -chmod 666 /d1/d11/t1.txt


[root@node1 hadoop-2.7.2]$ hadoop fs -chown root:root /d1/d11/t2.txt


9) -copyFromLocal:从本地文件系统中拷贝文件到hdfs路径去


[root@node1 hadoop-2.7.2]$ hadoop fs -copyFromLocal README.txt /


10) -copyToLocal:从hdfs拷贝到本地


[root@hadoop101 hadoop-2.7.2]$hadoop fs -copyToLocal /d1/d11/t2.txt ./


11) -cp :从hdfs的一个路径拷贝到hdfs的另一个路径


[root@node1 hadoop-2.7.2]$ hadoop fs -cp /d1/d11/t1.txt /hello.txt


12) -mv:在hdfs目录中移动文件


[root@node1 hadoop-2.7.2]$ hadoop fs -mv /hello.txt /d1/d11/


13) -get:等同于copyToLocal,就是从hdfs下载文件到本地


[root@node1 hadoop-2.7.2]$ hadoop fs -get /d1/d11/t2.txt ./


14) -getmerge :合并下载多个文件,比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...


[root@node1 hadoop-2.7.2]$ hadoop fs -getmerge /sanguo/shuguo/* ./zaiyiqi.txt


15) -put:等同于copyFromLocal


[root@node1 hadoop-2.7.2]$ hadoop fs -put ./zaiyiqi.txt /sanguo/shuguo/


16) -rm:删除文件或文件夹


[root@node1 hadoop-2.7.2]$ hadoop fs -rm /user/root/test/jinlian2.txt


17) -rmdir:删除空目录


[root@node1 hadoop-2.7.2]$ hadoop fs -mkdir /test


[root@node1 hadoop-2.7.2]$ hadoop fs -rmdir /test




18) -du统计文件夹的大小信息


[root@node1 hadoop-2.7.2]$ hadoop fs -du -s -h /user/root/test


2.7 K /user/root/test


[root@node2 hadoop-2.7.2]$ hadoop fs -du -h /user/root/test


1.3 K /user/root/test/README.txt


15 /user/root/test/aa.txt


1.4 K /user/root/test/aaa.txt


19) -setrep:设置hdfs中文件的副本数量


[root@node1 hadoop-2.7.2]$ hadoop fs -setrep 10 /d1/d11/t1.txt

了解跟多大数据信息(www.ujiuye.com)

1)-appendToFile

用法: hadoop fs -appendToFile ...

作用:是将一个或者多个文件添加到HDFS系统中。

示例:

1
2
3
4
hadoop fs -appendToFile localfile /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -appendToFile - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.

  


(2)-cat

用法:hadoop fs -cat URI [URI ...]

作用:查看文件内容(可以查看本地和HDFS上的内容)。


示例:

1
2
hadoop fs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -cat file:///file3 /user/hadoop/file4

  

(3)-checksum

用法: hadoop fs -checksum URI

作用:查看校验码信息。(例子显示了MD5)

示例:

1
2
hadoop fs -checksum hdfs://nn1.example.com/file1
hadoop fs -checksum file:///etc/hosts

  


(4)-chgrp

用法: hadoop fs -chgrp [-R] GROUP URI [URI ...]

作用:改变文件所属的组。(Change group association of files.)

使用-R 将使改变在目录结构下递归进行。


(5)-chmod

作用:改变文件访问权限。

用法:hadoop fs -chmod [-R] URI [URI ...]

这里可以参考 Linux下文件系统的chmod的用法,基本类似。

(6)-chown

作用:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

用法:改变文件的所有者。使用-R 将使改变在目录结构下递归进行。命令的使用者必须是超级用户。

(7)-copyFromLocal

用法:hadoop fs -copyFromLocal URI

作用:类似于put命令,和put不同的是,拷贝的源地址必须是本地文件地址。

-f 参数 当拷贝的目标文件存在时,进行覆盖。

示例:

1
2
[root@two1 fanrui]# hadoop fs -copyFromLocal testFlatMap.txt /1.txt
copyFromLocal: `/1.txt': File exists

  

 这个时候加上-f参数。即可覆盖。

1
[root@two1 fanrui]# hadoop fs -copyFromLocal -f testFlatMap.txt /1.txt

 

(8)-copyToLocal

用法: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI

作用:类似于get指令。和get不同的是,拷贝的目的地址必须是本地文件地址。
(9)-count

作用:计算paths下的目录数,文件数和字节数。

用法: hadoop fs -count [-q] [-h] [-v]

1
2
3
4
hadoop fs -count hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -count -q hdfs://nn1.example.com/file1
hadoop fs -count -q -h hdfs://nn1.example.com/file1
hdfs dfs -count -q -h -v hdfs://nn1.example.com/file1

  


(10)-cp
用法:hadoop fs -cp [-f] [-p | -p[topax]] URI [URI ...]
作用:拷贝,HDFS文件系统中进行的拷贝操作。
-f 参数选项:当文件存在时,进行覆盖。
-p 参数选项:将权限、所属组、时间戳、ACL以及XAttr等也进行拷贝。下面是官网的描述。

The -p option will preserve file attributes [topx] (timestamps, ownership, permission, ACL, XAttr). If -p is specified with no arg, then preserves timestamps, ownership, permission. If -pa is specified, then preserves permission also because ACL is a super-set of permission. Determination of whether raw namespace extended attributes are preserved is independent of the -p flag.

示例:

1
[root@two1 fanrui]# hadoop fs -cp -p /tmp/fan /tmp/fan1

  

(11)-df
用法:hadoop fs -df [-h] URI [URI ...]
作用:显示剩余空间。
示例:

1
2
3
[root@two1 fanrui]# hadoop fs -df /
Filesystem                Size       Used    Available    Use%
hdfs://localhost:9000  37626667008  311296  24792702976    0%

 

(12)-dus
作用:显示文件长度概要。该方法已经被舍去,等价于 -du -s 方法。见(11)

(13)-expunge
作用:从垃圾桶目录永久删除超过保留阈值的检查点中的文件,并创建新检查点。

用法:hadoop fs -expunge

(14)-find
作用:查找满足表达式的文件和文件夹。没有配置path的话,默认的就是全部目录/;如果表达式没有配置,则默认为-print。
用法: hadoop fs -find ... ...
-name pattern 所要查找文件的文件名。
-iname pattern 所要查找的文件名,不区分大小写。
-print 打印。
-print0 打印在一行,如下图所示。

示例:

1
hadoop fs -find / -name test -print

  


(15)-get
作用:从HDFS上拷贝文件到本地。
用法:hadoop fs -get [-ignorecrc] [-crc]
示例:

1
2
hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://nn.example.com/user/hadoop/file localfile


(16)getfacl

作用:显示文件和文件夹的ACLs(Access Control Lists)。如果目录有默认的ACL,则显示之。
-R参数:递归显示。
用法:

hadoop fs -getfacl [-R]

Options:

  • -R: List the ACLs of all files and directories recursively.

  • path: File or directory to list.

示例:

1
2
hadoop fs -getfacl /file
hadoop fs -getfacl -R /dir

  

Exit Code:

Returns 0 on success and non-zero on error.

(17)getfattr

作用:显示文件或目录的扩展属性名和值(如果有的话)

用法:hadoop fs -getfattr [-R] -n name | -d [-e en]

Options:

-R:递归显示文件夹和文件。
-n name:转储命名的扩展属性值。
-d:转储与路径名相关联的所有扩展属性值。
-e en: 检索后的值进行编码。 有效的编码是 “text”, “hex”, and “base64”. 值编码作为文本字符串是用双引号括起来的(“),值编码作为16进制和64进制,前缀分别为 0x 和 0s。
path:文件或文件夹路径。

示例:

1
2
hadoop fs -getfattr -d /file
hadoop fs -getfattr -R -n user.myAttr /dir

  

(18)-getmerge
作用:是将HDFS上一个目录中所有的文件合并到一起输出到一个本地文件上。
用法:hadoop fs -getmerge [-nl]

示例:

1
2
hadoop fs -getmerge -nl /src /opt/output.txt
hadoop fs -getmerge -nl /src/file1.txt /src/file2.txt /output.txt

  

(19)-help
作用:帮助文档

用法:hadoop fs -help

(20)-ls
作用:查看文件,与linux下ls命令基本类似。
用法:hadoop fs -ls [-d] [-h] [-R]
选项:
-d:只展示查询展示目录;

-h:显示为人眼更易识别的单位(原来是字节)。

-R:递归展示,显示所有的文件夹及文件

示例:

1
2
3
hadoop fs -ls -d /
hadoop fs -ls -h /
hadoop fs -ls -R /

  

-lsr
作用:已经被舍去,效果等同于-ls -R

(21)-mkdir
作用:创建文件夹。

用法:hadoop fs -mkdir [-p]
选项:
-p:创建父目录。类似于Unix的mkdir -p命令。
示例:

1
2
hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
hadoop fs -mkdir hdfs://nn1.example.com/user/hadoop/dir hdfs://nn2.example.com/user/hadoop/dir

  

(22)-moveFromLocal
用法:hadoop fs -moveFromLocal
作用:类似于put命令,不同put命令的是,该操作是移动(意思就是localsrc将被删除)。localsrc应是本地文件。

(23)-moveToLocal
用法:hadoop fs -moveToLocal [-crc]
作用:该命令尚未实现,显示“Not implemented yet”。

(24)-mv
用法:移动文件。
作用: hadoop fs -mv URI [URI ...]
示例:

1
2
hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
hadoop fs -mv hdfs://nn.example.com/file1 hdfs://nn.example.com/file2 hdfs://nn.example.com/file3 hdfs://nn.example.com/dir1

 

(25)-put
用法: hadoop fs -put ...
作用:将本地的文件上传(复制)到HDFS是dst目录下。

示例:

1
2
3
4
hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -put - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.

  

(26)-rm
用法:hadoop fs -rm [-f] [-r |-R] [-skipTrash] URI [URI ...]
作用:删除文件。
选项:

The -f option will not display a diagnostic message or modify the exit status to reflect an error if the file does not exist.
The -R option deletes the directory and any content under it recursively.
The -r option is equivalent to -R.
The -skipTrash option will bypass trash, if enabled, and delete the specified file(s) immediately. This can be useful when it is necessary to delete files from an over-quota directory.

示例:

1
hadoop fs -rm hdfs://nn.example.com/file /user/hadoop/emptydir

(27)-rmdir
用法:hadoop fs -rmdir [--ignore-fail-on-non-empty] URI [URI ...]
作用:删除空目录。
选项:
—ignore-fail-on-non-empty:使用它的时候,忽略因文件夹非空删除失败的信息。

(28)-rmr
作用:该方法已经被舍去。和-rm -r效果一样。递归删除。


(29)-setfacl
用法:hadoop fs -setfacl [-R] [-b |-k -m |-x ] |[--set ]
作用:设置访问控制列表(ACL)的文件和目录。

选项:

-b:移除所有除了基本的ACL条目。用户、组和其他的条目被保留为与权限位的兼容性。
-k:删除默认的ACL。
-R: 递归应用于所有文件和目录的操作。
-m:修改ACL。新的项目添加到ACL,并保留现有的条目。
-x:删除指定的ACL条目。其他保留ACL条目。
–set:完全替换ACL,丢弃所有现有的条目。acl_spec必须包括用户,组,和其他有权限位的兼容性。
acl_spec:逗号分隔的ACL条目列表。
path:修改文件或目录。


示例:

1
2
3
4
5
6
7
hadoop fs -setfacl -m user:hadoop:rw- /file
hadoop fs -setfacl -x user:hadoop /file
hadoop fs -setfacl -b /file
hadoop fs -setfacl -k /dir
hadoop fs -setfacl --set user::rw-,user:hadoop:rw-,group::r--,other::r-- /file
hadoop fs -setfacl -R -m user:hadoop:r-x /dir
hadoop fs -setfacl -m default:user:hadoop:r-x /dir

  

(30)-setrep
用法:hadoop fs -setrep [-R] [-w]
作用:改变文件的目标副本系数,放入REP中。选项-R将递归的改变PATH指定的目录中所有文件的目标副本系数。副本系数需要一定的时间才能达到目标值。选项-w将等待副本系数以与目标值相匹配。

示例:

1
hadoop fs -setrep -w 3 /user/hadoop/dir1

  

(31)-stat
用法: hadoop fs -stat [format] ...
作用:根据一定格式打印文件/文件夹的统计信息。 文件大小 (%b), 类型 (%F), 所有者所在组 (%g), 名字 (%n), 块大小 (%o), 副本 (%r), 用户名(%u), 修改时间 (%y, %Y)。默认的是%y。
示例:
hadoop fs -stat "%F %u:%g %b %y %n" /file

(32)-tail
用法:hadoop fs -tail [-f] URI
作用:输出文件最后1kb的内容。
选项:
-f:和unix中tail -f命令类似,当文件内容更新时,输出将会改变,具有实时性。

示例:用一个场景测试下。首先HDFS的/目录下有文件mpwtest1.txt
命令:hadoop fs -tail -f /mpwtest1.txt
开启另外一个终端。输入命令: hadoop fs -appendToFile mpwtest2.txt /mpwtest1.txt
可以发现 窗口1 有变化。

(33)-test

作用:判断文件信息

用法:hadoop fs -test -[defsz] URI

选项:

-d:如果路径是一个目录,返回0
-e:如果路径已经存在,返回0
-f: 如果路径是一个文件,返回0
-s:如果路径不是空,返回0
-z:如果文件长度为0,返回0
URI:资源地址,可以是文件也可以是目录。

示例:

1
hadoop fs -test -e filename

(34)-text
用法:hadoop fs -text
作用:将HDFS中文件以文本形式输出(包括zip包,jar包等形式)
示例:hadoop fs -text /wc.jar


(35)-touchz
用法: hadoop fs -touchz URI [URI ...]
作用:创建一个空文件。
示例:hadoop fs -touchz /hello.jar

(35)-truncate
用法: hadoop fs -truncate [-w]

作用:截断指定长度匹配的所有文件内容。

选项:

  • -w:需要等待命令完成块恢复。如果没有-w选项,在恢复的过程中可能是未闭合的。

  • length:截断处的值,如果是100,则表示在100B处截断。

  • paths:文件地址。

示例:

1
2
hadoop fs -truncate 55 /user/hadoop/file1 /user/hadoop/file2
hadoop fs -truncate -w 127 hdfs://nn1.example.com/user/hadoop/file1

(36)-usage
用法: hadoop fs -usage command
作用:返回命令的help信息。


hadoop fs -ls /     (查询目录)
hadoop fs -mkdir /test      (在根目录下创建一个目录test)
hadoop fs -put ./test.txt /test     (将本地的test.txt文件上传到HDFS根目录下的test文件夹中去)
hadoop fs -copyFromLocal ./test.txt /test   (同上)
hadoop fs -get /test/test.txt   (从HDFS目录中获取文件)
hadoop fs -copyToLocal /test/test.txt    (同上)
hadoop fs -cp /test/test.txt /test1 (HDFS内部的复制)
hadoop fs -rm /test1/test.txt   (移除)
hadoop fs -mv /test/test.txt /test1  (如果两个目录是相同的,则该命令为重命名文件,否则为移动)
hadoop fs -rm -r /test1  (删除文件夹)
hadoop fs -help ls (查阅帮助,该命令为查看ls命令)
hadoop fs -cat README.txt(查看README.txt文件的内容)



哈哈哈哈哈哈嗝
5楼 · 2021-07-02 15:32

1.-help:输出这个命令参数 [root@node1 hadoop-2.7.2]$...

2.-ls: 显示目录信息 [root@node1 hadoop-2.7.2]$...

3.-mkdir:在hdfs上创建目录 [root@node1 hadoop-2.7.2]$...

4.-moveFromLocal从本地剪切粘贴到hdfs [root@node1 h...


寂静的枫林
6楼 · 2021-08-06 20:12

1) 启动Hadoop集群


[root@node1 hadoop-2.7.2]$ sbin/start-dfs.sh


[root@ node2 hadoop-2.7.2]$ sbin/start-yarn.sh


1) -help:输出这个命令参数


[root@node1 hadoop-2.7.2]$ hadoop fs -help rm


2) -ls: 显示目录信息


[root@node1 hadoop-2.7.2]$ hadoop fs -ls /


3) -mkdir:在hdfs上创建目录


[root@node1 hadoop-2.7.2]$ hadoop fs -mkdir -p /d1/d11


4) -moveFromLocal从本地剪切粘贴到hdfs


[root@node1 hadoop-2.7.2]$ touch t1.txt


[root@node1 hadoop-2.7.2]$ hadoop fs -moveFromLocal ./t1.txt /d1/d11

py大白
7楼 · 2021-08-20 11:32

HDFS常用命令,虽然现在流行很多hadoop插件,直接或间接操作HDFS,但是熟悉HDFS原生操作命令也是有好处的。HDFS命令和Linux系统操作命令有很多相似之处,对熟悉Linux系统操作的人来说学习很简单,所以大数据入门首先学习Linux系统。hadoop fs 和hdfs dfs 两种命令都可以操作执行。

#hdfs dfs -help [com]                        --查看hdfs帮助
#export HADOOP_USER_NAME=hdfs                --设置hadoop_user_name环境变量,执行命令时可以用hdfs dfs代替 hadoop fs
#hdfs dfs -chown [-R] root:root filepath                 --修改文件或文件夹组
#hdfs dfs -chmod [-R] o-r /dir                   --修改dir目录权限
#hdfs dfs -chgrp [-R] admin /dir                  --修改dir目录所在组,改为admin

#hdfs dfs -ls /    #hadoop fs -ls /                --查看根目录文件  
#hdfs dfs -put sourcepath savepath                  --hdfs上传文件,-f 覆盖已有文件;-p 保留原文件属性
#hdfs dfs -get sourcepath savepath                  --hdfs下载文件

#hdfs dfs -cat /input/filename    #hadoop fs -cat /input/filename    --查看文件filename
#hdfs dfs -du -s /input/                        --查看所有文件大小和字节大小
#hdfs dfs -cp /sourcefile /targetfile   #hadoop fs -cp /src /trget     --复制文件,hadoop fs -cp < hdfs> < hdfs>
#hdfs dfs -count < hdfs>                    --统计hdfs对应路径下的目录个数,文件个数,文件总计大小 
#hdfs dfs -count /input/test/                      --统计文件夹和文件个数
#hdfs dfs -text < hdsf>                     --将文本文件或某些格式的非文本文件通过文本格式输出
#hdfs dfs -text /input/log.txt                    --将给定的文件以文本的格式输出,zip、TextRecordInputStream、Avro
#hdfs dfs -getmerge sourcepaths savefilename           --合并文件
#hdfs dfsadmin -report                        --查看HDFS的基本统计信息
#hadoop-deamon.sh start namenode                --单独启动某个服务
#hadoop-daemon.sh start datanode                  --启动一个 DN,先启动datanode节点,再启动nodemanager。
#hadoop-daemon.sh start nodemanager              --启动一个 DN,先启动datanode节点,再启动nodemanager。

#hdfs dfs -mkdir /output/dirname   #hadoop fs –mkdir /dirname   --创建文件夹dirname
#hdfs dfs -touchz /input/filename                   --创建文件filename
#hdfs dfs -appendToFile /appendfile /input/targetfile          --向现有文件中追加内容
#hdfs dfs -rm /directory/                        --删除文件
#hdfs dfs -rm -R /directory/   #hadoop fs -rm -r /dir          --删除文件夹,-R循环删除文件夹里面的文件
#hdfs dfs -mv /user/root/.Trash/Current/test/filename /test/filename     --找回删除文件

#hdfs dfs -moveFromLocal < local> ... < hdfs>        --与put相类似,命令执行后源文件local src被删除,也可以是键盘输入
#hdfs dfs -copyFromLocal < local> ... < hdfs>          --与put相类似,也可以从从键盘读取输入到hdfs file中

#hdfs dfsadmin -safemode enter                    --进入安全模式
#hdfs dfsadmin -safemode leave                    -- 退出安全模式

#bin/start-all.sh            --添加一个新的DataNode节点后,配置相同配置。NameNode节点上修改$HADOOP_HOME/conf/slaves文件,加入新节点名,再建立新加节点无密码的SSH连接,运行启动命令。
#bin/start-balancer.sh       --HDFS的数据在各个DataNode中的分布可能很不均匀,尤其是在DataNode节点出现故障或新增DataNode节点时。可使用命令重新平衡DataNode上的数据块的分布。


我的网名不再改
8楼 · 2021-08-25 13:18

常用命令:


1) 启动Hadoop集群


[root@node1 hadoop-2.7.2]$ sbin/start-dfs.sh


[root@ node2 hadoop-2.7.2]$ sbin/start-yarn.sh


1) -help:输出这个命令参数


[root@node1 hadoop-2.7.2]$ hadoop fs -help rm


2) -ls: 显示目录信息


[root@node1 hadoop-2.7.2]$ hadoop fs -ls /


3) -mkdir:在hdfs上创建目录


[root@node1 hadoop-2.7.2]$ hadoop fs -mkdir -p /d1/d11


4) -moveFromLocal从本地剪切粘贴到hdfs


[root@node1 hadoop-2.7.2]$ touch t1.txt


[root@node1 hadoop-2.7.2]$ hadoop fs -moveFromLocal ./t1.txt /d1/d11


5) -appendToFile :追加一个文件到已经存在的文件末尾


[root@node1 hadoop-2.7.2]$ touch t2.txt


[root@node1 hadoop-2.7.2]$ vim t2.txt


输入


Good morning!


[root@node2 hadoop-2.7.2]$ Hadoop fs -appendToFile t1.txt /d1/d11/t2.txt


6) -cat:显示文件内容


[root@node1 hadoop-2.7.2]$ hadoop fs -cat /d1/d11/t1.txt


7) -tail:显示一个文件的末尾


[root@node1 hadoop-2.7.2]$ hadoop fs -tail /d1/d11/t1.txt


8) -chgrp 、-chmod、-chown:linux文件系统中的用法一样,修改文件所属权限


[root@node1 hadoop-2.7.2]$ hadoop fs -chmod 666 /d1/d11/t1.txt


[root@node1 hadoop-2.7.2]$ hadoop fs -chown root:root /d1/d11/t2.txt


9) -copyFromLocal:从本地文件系统中拷贝文件到hdfs路径去


[root@node1 hadoop-2.7.2]$ hadoop fs -copyFromLocal README.txt /


10) -copyToLocal:从hdfs拷贝到本地


[root@hadoop101 hadoop-2.7.2]$hadoop fs -copyToLocal /d1/d11/t2.txt ./


11) -cp :从hdfs的一个路径拷贝到hdfs的另一个路径


[root@node1 hadoop-2.7.2]$ hadoop fs -cp /d1/d11/t1.txt /hello.txt


12) -mv:在hdfs目录中移动文件


[root@node1 hadoop-2.7.2]$ hadoop fs -mv /hello.txt /d1/d11/


13) -get:等同于copyToLocal,就是从hdfs下载文件到本地


[root@node1 hadoop-2.7.2]$ hadoop fs -get /d1/d11/t2.txt ./


14) -getmerge :合并下载多个文件,比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...


[root@node1 hadoop-2.7.2]$ hadoop fs -getmerge /sanguo/shuguo/* ./zaiyiqi.txt


15) -put:等同于copyFromLocal


[root@node1 hadoop-2.7.2]$ hadoop fs -put ./zaiyiqi.txt /sanguo/shuguo/


16) -rm:删除文件或文件夹


[root@node1 hadoop-2.7.2]$ hadoop fs -rm /user/root/test/jinlian2.txt


17) -rmdir:删除空目录


[root@node1 hadoop-2.7.2]$ hadoop fs -mkdir /test


[root@node1 hadoop-2.7.2]$ hadoop fs -rmdir /test




18) -du统计文件夹的大小信息


[root@node1 hadoop-2.7.2]$ hadoop fs -du -s -h /user/root/test


2.7 K /user/root/test


[root@node2 hadoop-2.7.2]$ hadoop fs -du -h /user/root/test


1.3 K /user/root/test/README.txt


15 /user/root/test/aa.txt


1.4 K /user/root/test/aaa.txt


19) -setrep:设置hdfs中文件的副本数量


[root@node1 hadoop-2.7.2]$ hadoop fs -setrep 10 /d1/d11/t1.txt


嘿呦嘿呦拔萝卜
9楼 · 2021-08-26 14:53

使用方法:hadoopfs-chgrp[-R]GROUPURI[URI…]Changegroupassociationoffiles.With-R,makethechangerecursivelythroughthedirectorystructure.Theusermustbetheowneroffiles,orelseasuper-user.AdditionalinformationisinthePermissionsUserGuide.–>改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。的信息请参见HDFS权限用户指南。

相关问题推荐

  • 什么是大数据时代?2021-01-13 21:23
    回答 100

    大数据(big data)一词越来越多地被提及,人们用它来描述和定义信息爆炸时代产生的海量数据,而这个海量数据的时代则被称为大数据时代。随着云时代的来临,大数据(Big data)也吸引了越来越多的关注。大数据(Big data)通常用来形容一个公司创造的大量非结...

  • 回答 84

    Java和大数据的关系:Java是计算机的一门编程语言;可以用来做很多工作,大数据开发属于其中一种;大数据属于互联网方向,就像现在建立在大数据基础上的AI方向一样,他两不是一个同类,但是属于包含和被包含的关系;Java可以用来做大数据工作,大数据开发或者...

  • 回答 52
    已采纳

    学完大数据可以从事很多工作,比如说:hadoop 研发工程师、大数据研发工程师、大数据分析工程师、数据库工程师、hadoop运维工程师、大数据运维工程师、java大数据工程师、spark工程师等等都是我们可以从事的工作岗位!不同的岗位,所具备的技术知识也是不一样...

  • 回答 29

    简言之,大数据是指大数据集,这些数据集经过计算分析可以用于揭示某个方面相关的模式和趋势。大数据技术的战略意义不在于掌握庞大的数据信息,而在于对这些含有意义的数据进行专业化处理。大数据的特点:数据量大、数据种类多、 要求实时性强、数据所蕴藏的...

  • 回答 14

    tail -f的时候,发现一个奇怪的现象,首先 我在一个窗口中 tail -f test.txt 然后在另一个窗口中用vim编辑这个文件,增加了几行字符,并保存,这个时候发现第一个窗口中并没有变化,没有将最新的内容显示出来。tail -F,重复上面的实验过程, 发现这次有变化了...

  • 回答 18

    您好针对您的问题,做出以下回答,希望有所帮助!1、大数据行业还是有非常大的人才需求的,对于就业也有不同的岗位可选,比如大数据工程师,大数据运维,大数据架构师,大数据分析师等等,就业难就难在能否找到适合的工作,能否与你的能力和就业预期匹配。2、...

  • 回答 17

    最小的基本单位是Byte应该没多少人不知道吧,下面先按顺序给出所有单位:Byte、KB、MB、GB、TB、PB、EB、ZB、YB、DB、NB,按照进率1024(2的十次方)计算:1Byte = 8 Bit1 KB = 1,024 Bytes 1 MB = 1,024 KB = 1,048,576 Bytes 1 GB = 1,024 MB = 1,048,576...

  • 回答 33

    大数据的定义。大数据,又称巨量资料,指的是所涉及的数据资料量规模巨大到无法通过人脑甚至主流软件工具,在合理时间内达到撷取、管理、处理、并整理成为帮助企业经营决策更积极目的的资讯。大数据是对大量、动态、能持续的数据,通过运用新系统、新工具、新...

  • 回答 5

    MySQL是一种关系型数据库管理系统,关系数据库将数据保存在不同的表中,而不是将所有数据放在一个大仓库内,这样就增加了速度并提高了灵活性。MySQL的版本:针对不同的用户,MySQL分为两种不同的版本:MySQL Community Server社区版本,免费,但是Mysql不提供...

  • mysql安装步骤mysql 2022-05-07 18:01
    回答 2

    mysql安装需要先使用yum安装mysql数据库的软件包 ;然后启动数据库服务并运行mysql_secure_installation去除安全隐患,最后登录数据库,便可完成安装

  • 回答 5

    1.查看所有数据库showdatabases;2.查看当前使用的数据库selectdatabase();3.查看数据库使用端口showvariableslike&#39;port&#39;;4.查看数据库编码showvariableslike‘%char%’;character_set_client 为客户端编码方式; character_set_connection 为建立连接...

  • 回答 5

    CREATE TABLE IF NOT EXISTS `runoob_tbl`(    `runoob_id` INT UNSIGNED AUTO_INCREMENT,    `runoob_title` VARCHAR(100) NOT NULL,    `runoob_author` VARCHAR(40) NOT NULL,    `submission_date` DATE,    PRI...

  • 回答 9

    学习多久,我觉得看你基础情况。1、如果原来什么语言也没有学过,也没有基础,那我觉得最基础的要先选择一种语言来学习,是VB,C..,pascal,看个人的喜好,一般情况下,选择C语言来学习。2、如果是有过语言的学习,我看应该一个星期差不多,因为语言的理念互通...

  • 回答 7

    添加语句 INSERT插入语句:INSERT INTO 表名 VALUES (‘xx’,‘xx’)不指定插入的列INSERT INTO table_name VALUES (值1, 值2,…)指定插入的列INSERT INTO table_name (列1, 列2,…) VALUES (值1, 值2,…)查询插入语句: INSERT INTO 插入表 SELECT * FROM 查...

  • 回答 5

    看你什么岗位吧。如果是后端,只会CRUD。应该是可以找到实习的,不过公司应该不会太好。如果是数据库开发岗位,那这应该是不会找到的。

  • 回答 7

    查找数据列 SELECT column1, column2, … FROM table_name; SELECT column_name(s) FROM table_name 

没有解决我的问题,去提问