微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Spark Shell及Spark2.2和Spark1.6的对比

2019-12-12  09:37:43

Spark Shell

Spark-shell是Spark自带的交互式Shell程序,方便用户进行交互式编程,可以在命令下编写Scala程序执行Spark

Spark-shell多用于测试 Spark-Shell启动有两种模式 local模式和Cluster模式

Local模式:

ps: 必须进入到Spark安装目录中bin目录下
spark-shell 
启动的就是本地模式,local模式仅在本机启动一个SparkSubmit进程,没有集群建立联系,虽然进程中有SparkSubmit但是不会被提交到集群

 

 

Cluster模式:

必须进入到Spark安装目录中bin目录下
spark-shell \
--master spark://hadoop01:7077 \
--executor-memory  512M \
--total-executor-cores 1
ps: --master必须有的一条命令  后面的两条是可以没有的

  

退出Shell:

1.使用 :quit  退出shell
2.使用 ctrl+c 退出shell  
ps:使用ctrl+c 退出shell 可能会出现 后台占用端口的情况
   查看监听端口  netstat -apn | grep 4040  只要有这个端口占用的进程就杀死

 

 Spark2.2shell和Spark1.6shell的对比

1)Spark2.2

 

 2)Spark1.6

 说明:Spark2.X版本shell中有两个内置对象

SparkContext  ——> 变量名:sc

SparkSession  ——>变量名:spark

SparkSession不能单独拿出来解释,2.x之后spark将sqlContext和HiveContext进行整合提供一种全新的创建方式SparkSession

Spark1.6版本shell中有两个内置对象

SparkContext  ——>变量名:sc

sqlContext  ——>变量名:sqlcontext

 

 

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐