在使用spark on yarn启动spark-shell时,发现报错:
是说找不到主机名为namenode的主机,那么应该是配置文件出错了。
经过检查,发现是spark-defaults.conf文件配置错误,配置的时候直接将上面复制了下来,导致忘了修改为node1,所以配置时一定要细心
更改后完美解决
最近老是犯低级错误,难受
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。