微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Spark学习笔记-Day3 Mac-Spark运行环境Local

Spark 运行环境

local 模式

  1. Day2中我们下载了spark-hadoop包,在本次我们将继续使用这个压缩包,首先解压到当前位置,更改文件名称为sparkLocal,进入该文件夹,输入下面指令可以开启spark-shell
bin/spark-shell

我们可以在解压后的data文件夹内创建word.txt 文件

cd data
vi word.txt
# 输入你想放入word.txt的内容 然后按esc,输入:wq, 按下Enter。

然后再命令行工具下执行如下代码

scala> sc.textFile("data/word.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect
res0: Array[(String, Int)] = Array((scala,1), (hello,3), (world,2))

在运行scala代码的时候,因为collect()会连接到本地,所以mac需要在系统偏好设置的共享里面将远程登陆勾选上。
你可以通过 http://localhost:8080/ 来访问你的WebUI监控主页。
之后一般是使用local模式提交应用,可以使用本地的应用SparkPI来测试是否可以成功提交作业, 需要注意的是examples后面的版本号,找到对应的examples文件进行修改

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master local[2] \
./examples/jars/spark-examples_2.12-3.1.1.jar \
10

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐