微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Hadoop遇到的问题

1、

问题描述:hadoop集群启动时,datanode进程启动不了

解决方法

dfs.namenode.name.dir file:///root/work/hadoop-2.7.1/tmp/namenode dfs.datanode.data.dir file:///root/work/hadoop-2.7.1/tmp/datanode

2.启动时报错 java.net.UnkNownHostException

结果:不能正常启动

原因:通过localhost.localdomain根本无法映射到一个IP地址

解决办法:查看/etc/hosts,将主机名添加到hosts文件

3.Hive执行时报错 java.lang.OutOfMemoryError: GC overhead limit exceeded

解决办法:,关闭功能,可以添加JVM的启动参数来限制使用内存:在mapred-site.xml 里新增项:mapred.child.java.opts 内容:-XX:-UseGCOverheadLimit

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐