今天就跟大家聊聊有关Spark提交作业的示例分析,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
初尝试
cd software/spark-3.0.1-bin-hadoop2.7
启动 master
./sbin/start-master.sh
访问 http://localhost:8080 得到 spark://MacBook-Pro-2.local:7077
启动 Worker
./bin/spark-class org.apache.spark.deploy.worker.Worker spark://MacBook-Pro-2.local:7077
访问 http://localhost:8081 可查看提交的作业
提交作业
./bin/spark-submit --master spark://MacBook-Pro-2.local:7077 --class morning.cat.SparkTest /Users/morningcat/Documents/java-project/spark-demo/out/artifacts/spark_demo_jar/spark-demo.jar
package morning.cat; import org.apache.spark.SparkConf; import org.apache.spark.SparkContext; import org.apache.spark.rdd.RDD; public class SparkTest { public static void main(String[] args) { SparkConf sparkConf = new SparkConf().setAppName("SparkTest").setMaster("spark://MacBook-Pro-2.local:7077"); SparkContext sparkContext = new SparkContext(sparkConf); RDD<String> rdd = sparkContext.textFile("/Users/morningcat/Documents/settings.xml", 1); long lineCount = rdd.count(); System.out.println(lineCount); } }
看完上述内容,你们对Spark提交作业的示例分析有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注编程之家行业资讯频道,感谢大家的支持。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。