1、
创建文件夹
hadoop fs -mkdir [-p] ...
path 为待创建的目录
-p选项的行为与Unix mkdir -p非常相似,它会沿着路径创建父目录。
hdfs dfs -mkdir /temp
2、查看指定目录下
内容
hadoop fs -ls [-h] [-R] [ ...]
path 指定
目录路径
-h 人性化
显示文件size
-R 递归查看指定目录及其子目录
hdfs dfs -ls /
3、
上传文件到HDFS指定目录下
hadoop fs -put [-f] [-p] ...
-f 覆盖目标
文件(已存在下)
-p 保留访问和
修改时间,所有权和权限。
localsrc 本地
文件系统(客户端所在机器)
dst 目标
文件系统(HDFS)
hdfs dfs -put /usr/local/soft/jdk-8u331-linux-x64.tar.gz /shujia/
类似命令: hdfs dfs -
copyFromLocal 源
文件夹 目标
文件夹 #
copyFromLocal
作用同put hdfs dfs -moveFromLocal 源
文件夹 目标
文件夹 #
上传后
删除本地
4、查看HDFS
文件内容
hadoop fs -cat ...
读取指定
文件全部
内容,
显示在标准
输出控制台。
注意:对于大
文件内容读取,慎重。
hdfs dfs -cat /shujia/students.txt
5、下载HDFS
文件
hadoop fs -get [-f] [-p] ...
下载
文件到本地
文件系统指定目录,localdst必须是目录
-f 覆盖目标
文件(已存在下)
-p 保留访问和
修改时间,所有权和权限。
hdfs dfs -get /shujia/jdk-8u331-linux-x64.tar.gz
类似命令 hdfs dfs -
copyToLocal 源
文件夹 目标
文件夹 #
copyToLocal
作用同get hdfs dfs -mov
etoLocal 源
文件夹 目标
文件夹 #get后
删除源
文件
6、拷贝HDFS
文件
hadoop fs -cp [-f] ...
-f 覆盖目标
文件(已存在下)
hdfs dfs -cp /shujia/jdk-8u331-linux-x64.tar.gz /aa
7、追加数据到HDFS
文件中
hadoop fs -appendToFile ...
将所有给定本地
文件的
内容追加到给定dst
文件。
dst如果
文件不存在,将创建该
文件。
如果为-,则输入为从标准输入中读取。
hdfs dfs -appendToFile a.txt /shujia/students.txt
8、HDFS数据移动操作
hadoop fs -mv ...
移动
文件到指定
文件夹下
可以使用该命令移动数据,
重命名文件的
名称
hdfs dfs -mv /shujia/students.txt /aa/bb/
9、
创建文件
hdfs dfs -touchz path
该命令不可递归
创建文件,即当该
文件的
上级目录不存在时无法创建该
文件,如果重复创建会覆盖原有的
内容
hdfs dfs -touchz /hello.txt
10、查看磁盘使用情况
hdfs dfs -du path
查看path下的磁盘情况,单位字节
hdfs dfs -du /
11、
修改权限
hdfs dfs -chmod [权限参数][拥有者][:[组]] path
hdfs dfs -chmod 777 /hello.txt
12、
删除文件
hdfs dfs -rm 目标
文件 #rm不可以
删除文件夹
hdfs dfs -rm -R 目标
文件 #递归
删除(慎用)
hdfs dfs -rm /hello.txt hdfs dfs -rm -R /aa
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。