HDFS基本操作

启动HDFS的守护进程

start-dfs.sh

1、导入文件

准备一些测试文件

[hadoop@wxjtest195 ~]$ mkdir sample_data
[hadoop@wxjtest195 ~]$ cp /opt/hadoop-2.6.1/etc/hadoop/* sample_data/

导入文件示例:

[hadoop@wxjtest195 ~]$ hdfs dfs -put sample_data/hadoop-policy.xml /policy.xml

/policy.xml代表存放到hdfs的根目录中

导入多个文件示例:

[hadoop@wxjtest195 ~]$ hdfs dfs -put sample_data/httpfs-env.sh sample_data/mapred-env.sh /user/hadoop

最后都是以HDFS的路径结尾就可以了

查看HDFS目录中的文件

2、查看HDFS文件内容

查看HDFS文件的内容则使用cat参数,如果需要对比本地的文件,本地目录可以使用file://代表本地路径。

[hadoop@wxjtest195 ~]$  hdfs dfs -cat file:///home/hadoop/.bashrc /user/hadoop/mapred-env.sh

3、复制到HDFS文件系统

[hadoop@wxjtest195 ~]$  hdfs dfs -cp /user/hadoop/mapred-env.sh /user/hadoop/copied_file.txt

4、移动到HDFS文件系统

[hadoop@wxjtest195 ~]$  hdfs dfs -mv  /user/hadoop/copied_file.txt /copied_file.txt

5、追加到HDFS文件系统的文件

使用 appendToFile 参数,最后一个参数为被追加的对象

[hadoop@wxjtest195 ~]$ echo 1>a.txt
[hadoop@wxjtest195 ~]$ echo 2>b.txt
[hadoop@wxjtest195 ~]$ hdfs dfs -appendToFile a.txt b.txt /user/hadoop/mapred-env.sh

6、查看HDFS文件系统尾部内容

[hadoop@wxjtest195 ~]$ hdfs dfs -tail /user/hadoop/mapred-env.sh 

7、删除文件系统的文件和目录

[hadoop@wxjtest195 ~]$ hdfs dfs  -ls /
 Found 4 items
 -rw-r--r--   1 hadoop supergroup       1383 2019-11-28 03:39 /copied_file.txt
 -rw-r--r--   1 hadoop supergroup       9683 2019-11-28 03:13 /policy.xml
 drwx------   - hadoop supergroup          0 2019-11-28 01:50 /tmp
 drwxr-xr-x   - hadoop supergroup          0 2019-11-28 01:47 /user
 [hadoop@wxjtest195 ~]$ hdfs dfs  -rm /copied_file.txt
 19/11/28 03:50:02 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes.
 Deleted /copied_file.txt
 [hadoop@wxjtest195 ~]$ hdfs dfs  -ls /
 Found 3 items
 -rw-r--r--   1 hadoop supergroup       9683 2019-11-28 03:13 /policy.xml
 drwx------   - hadoop supergroup          0 2019-11-28 01:50 /tmp
 drwxr-xr-x   - hadoop supergroup          0 2019-11-28 01:47 /user

8、创建目录

[hadoop@wxjtest195 ~]$ hdfs dfs -mkdir -p /user/hadoop/dir1 /user/hadoop/dir2

9、查看空间占用

10、导出文件

[hadoop@wxjtest195 ~]$ hdfs dfs -get /user/hadoop/mapred-env.sh exported_file.txt

发表评论

后才能评论