一:使用:kettle:wind本地MysqL数据到hive的指定路径
二:问题:没有root写权限
网上说的什么少jar包,我这里不存在这种情况,因为我自己是导入jar包的:mysql-connector-java-5.1.22-bin.jar
我是从wind本地MysqL导数据到hive的指定路径,会出现2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x
其实大概意思是说我没有root写权限:
搜索了网上很多说法,但是没有用,我自己使用了这种,仅供参考,可以使用:
三:解决办法:
# 添加用户
hadoop fs -mkdir /user/admin
# 权限分配
hadoop fs -chown admin:hdfs /user/admin
# 修改权限
hadoop fs -chmod -R 777 /
报错部分关键字:
1.org.pentaho.di.core.exception.KettleFileException
2.org.apache.commons.vfs2.filesystemexception: Could not create file
3.2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。