1.csv文件
2.将csv文件上传到服务器
(我这里是上传到了根目录下)
3.将文件上传到HDFS
sudo -u hdfs hadoop fs -put test_emp.csv /user/home/
(注意test_emp.csv文件在哪个目录下就在哪执行这个操作)
关于执行hdfs命令的说明:
对CDH用户:假设系统有一个文件夹/user/directory,注意,这个文件夹的拥有者不是所谓的“root”。实际上,这个文件夹为“hdfs”所有(755权限,这里将hdfs理解为一个属于supergroup的用户)。所以,只有hdfs用户可以对文件夹进行写操作。与Unix/Linux不同,hdfs是超级使用者(superuser),而不是root。
这里,我们可以创建一个文件夹,更改其权限为root(或你的用户名)。所以,你可以向这个文件夹随意的存、改文件了。
sudo -u hdfs hadoop fs -chown root /user/intern/test67
4.hbase中创建一个表(hbase-test01),且列族为info
hbase shell
create 'hbase-test01','info'
quit
5.将hdfs中的test_emp.csv导入hbase
hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator="," -Dimporttsv.columns=HBASE_ROW_KEY,info:ENAME,info:JOB,info:MGR,info:HIREDATE,info:SAL,info:COMM,info:DEPTNO hbase-test01 /user/home/test_emp.csv
(注意:hbase会默认将第一列的内容即该csv文件中的EMPNO作为rowkey,所以你执行该命令时是不需要有“info:EMPNO”的,不然hbase中的数据是乱的)
6.查看
hbase shell
scan 'hbase-test01'
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。