微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

spark基本框架(本地读取)

scala样板(度本地文件执行文件)

import org.apache.spark.{SparkConf, SparkContext}
object wordCount {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local").setAppName("My App")
    val sc = new SparkContext(conf)
    # 文件输入
    val input = sc.textFile("D:\\Java_code\\bigDataLogTest_new\\pom.xml")
	# 数据处理过程
	.....
	# 结束sparkContext
    sc.stop()
  }
}

java样板(读本地文件执行任务)

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.FlatMapFunction;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.api.java.function.VoidFunction;
import scala.Tuple2;
import java.util.*;

public class wordCount {
    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setMaster("local").setAppName("wordCount");
        JavaSparkContext jsc = new JavaSparkContext(conf);
        ## 文件读取
        JavaRDD<String> inputRDD = jsc.textFile("D:\\Java_code\\bigDataLogTest_new\\pom.xml");
        ## 数据处理过程
        .......
        ## javaSparkContext 结束
        jsc.stop();
    }
}

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐