微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

第五章_Spark核心编程_SparkConf&SparkContext

/*
* Todo 关于 SparkConf 的作用
*   1. spark的配置对象 用来初始化 Spark application 的配置信息
*   2. 用 SparkConf.set("key","value") 的方式来注入配置信息
*   3. 用 SparkConf对象 指定的配置信息,优先级是最高的(该对象的任何设置都会覆盖认配置和系统属性)
*         SparkConf.set("key","value") > 外部配置信息 > 系统认设置
*   4. 参数
*         是否 加载系统配置 和 classpath的配置 作为当前应用的配置,true是 false否
*
*
* Todo 关于 SparkContext 的作用
*   1. Spark 功能的主要入口类
*   2. 一个 SparkContext对象 表示 spark到集群的 连接对象
*   3. 可以用 SparkContext对象 在集群上 创建RDD accumulators broadcast
*   4. 每个JVM中 只能有一个活跃的 SparkContext对象,必须将现有对象 stop()才能创建新的 SparkContext对象
*
* Todo 关于 日志级别 的设置
*   方式1: 不设置,使用系统认配置
*       Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
*   方式2: 在工程 resources目录下添加 log4j.properties
*       内容可以参考 org/apache/spark/log4j-defaults.properties
*   方式3: 用 spark环境对象SparkContext 来指定(优先级是最高的)
*       SparkContext.setLogLevel("")
*       日志级别: ALL, DEBUG, ERROR, FATAL, INFO, OFF, TRACE, WARN
*
* Todo 关于 SparkUI
*
* */

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐