微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

spark安装配置

@H_404_4@

=spark安装配置=================

一、安装Spark
1.1 下载并解压
tar -zxvf spark-2.4.5-bin-hadoop2.6.tgz

1.2 配置环境变量
	vim /etc/profile

	添加环境变量:
		export SPARK_HOME=/opt/spark2.4
		export  PATH=${SPARK_HOME}/bin:$PATH

		使得配置的环境变量立即生效:
			source /etc/profile

1.3 Local模式
Local 模式是最简单的一种运行方式,它采用单节点多线程方式运行,不用部署,开箱即用,适合日常测试开发。

	# 启动spark-shell
		spark-shell --master local[2]

		local:只启动一个工作线程;
		local[k]:启动 k 个工作线程;
		local[*]:启动跟 cpu 数目相同的工作线程数。

		"""
			进入 spark-shell 后,程序已经自动创建好了上下文 SparkContext,等效于执行了下面的 Scala 代码:
				val conf = new SparkConf().setAppName("Spark shell").setMaster("local[2]")
				val sc = new SparkContext(conf)
		“”“

二、词频统计案例
安装完成后可以先做一个简单的词频统计例子,感受 spark 的魅力。准备一个词频统计文件样本 wc.txt,内容如下
hadoop,spark,hadoop
spark,flink,flink,spark
hadoop,hadoop

在 scala 交互式命令行中执行如下 Scala 语句:

scala> val file = spark.sparkContext.textFile("file:///opt/spark2.4/wc.txt")

scala> val wordCounts = file.flatMap(line => line.split(",")).map((word => (word, 1))).reduceByKey(_ + _)

scala> wordCounts.collect

同时还可以通过 Web UI 查看作业的执行情况,访问端口为 4040:

三、Scala开发环境配置
请看相关文档:
https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Spark%E5%BC%80%E5%8F%91%E7%8E%AF%E5%A2%83%E6%90%AD%E5%BB%BA.md#11-%E4%B8%8B%E8%BD%BD%E5%B9%B6%E8%A7%A3%E5%8E%8B

夜神很努力 发布了11 篇原创文章 · 获赞 11 · 访问量 119 私信 关注

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐