1.spark提供了交互式接口 spark-shell
spark-shell 实现了用户可以逐行输入代码,进行操作的功能。 即可以不像Java一样,编写完所有代码,然后编译才能运行
spark-shell 支持 Scala交互环境 和 python交互环境
在学习测试中可以使用spark-shell 进行API学习
2.进入Scala交互环境
在spark安装目录的根目录下,有个bin目录中有个 spark_shell
2.1 在本机生成spark指挥所,创建sparkContext指挥官
在 spark安装根目录中 执行,
eg:根目录下执行
./bin/spark-shell --master local
标识用一个worker 线程运行spark, 即单线程
也可以指定线程数
./bin/spark-shell --master local[2]
标识用两个线程执行
./bin/spark-shell --master local[*]
用 * 表示用当前物理机最大 线程数, 比如 说当前机器 物理cpu是 2个,然后每个物理cpu是2个核, 那就是4个逻辑核,所以 【*】 最大线程是4
,所以说 如果当前物理机 最大逻辑核是 4, 如果 参数写个【8】 也是没有用的,8个线程中只有4个线程执行,然后另外4个线程等待
2.2 在集群中生成spark指挥所,生成sparkContext
在spark根目录中执行
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。