看MOOC慕课网上的spark课程,首先配置spark环境。
spark需要与Hadoop共同协作,所以在安装spark之前要先安装Hadoop,而spark和Hadoop又基于Java语言,所以在Hadoop之前需要先配置Java环境。
然后问题又来了,整个spark、Hadoop运行环境,在非Windows系统上运行较佳,所以还得先装虚拟机和虚拟系统。。。
下面从前到后按步骤来:
本教程由厦门大学数据库实验室 / 给力星出品,转载请注明。
一、在Windows中使用VirtualBox安装Ubuntu
详情请戳 http://dblab.xmu.edu.cn/blog/337-2/
Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04
详情请戳 http://dblab.xmu.edu.cn/blog/install-hadoop/
(还在配置虚拟机中……未完待续)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。