前提环境:
单节点伪集群:Hadoop + zookeeper + Hbase
https://www.cnblogs.com/Sleepy-ff/p/11737339.html
资源下载:
http://mirror.bit.edu.cn/apache/spark/
(1.) 下载解压
(2.) 配置环境变量
vim /etc/profile
source /etc/profile
cp spark-env.sh.template spark-env.sh
vim spark-env.sh
// 以下是spark-env.sh 中新增内容
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoo
(4.) 配置完成即可启动spark
spark-shell --master yarn --deploy-mode client
注:若启动报错,可参考文章: https://blog.csdn.net/chengyuqiang/article/details/77864246
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。