微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

java maven开发spark demo程序

在完成spark环境安装部署之后,部署过程这里略过,就可以通过java开发spark程序了。

1. 添加程序依赖

<dependencies>
        <!-- spark-core spark核心-->
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.12</artifactId>
            <version>2.4.8</version>
        </dependency>
        
        <!-- spark-streaming spark流计算-->
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-streaming_2.12</artifactId>
            <version>2.4.8</version>
        </dependency>

</dependencies>

2. 编写测试程序

package com.demo;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;


/**
 * author:
 */
public class SparkDemo {

    public static void main(String[] args) {
        String readme = "D:\\spark\\CHANGES.txt";
        SparkConf conf = new SparkConf().setAppName("tiger's first spark app");
        conf.setMaster("local[2]");

        JavaSparkContext sc = new JavaSparkContext(conf);

        // 从指定的文件中读取数据到RDD
        JavaRDD<String> logData = sc.textFile(readme).cache();

        // 过滤包含h的字符串,然后在获取数量
        long num = logData.filter(new Function<String, Boolean>() {
            public Boolean call(String s) {
                return s.contains("h");
            }

        }).count();

        System.out.println("the count of word a is " + num);

    }
}

 conf.setMaster()的参数及含义如下

  • local 本地单线程
  • local[K] 本地多线程(指定K个内核)
  • local[*] 本地多线程(指定所有可用内核)
  • spark://HOST:PORT 连接到指定的 Spark standalone cluster master,需要指定端口。
  • mesos://HOST:PORT 连接到指定的 Mesos 集群,需要指定端口。
  • yarn-client客户端模式 连接到 YARN 集群。需要配置 HADOOP_CONF_DIR。
  • yarn-cluster集群模式 连接到 YARN 集群。需要配置 HADOOP_CONF_DIR。

 3. 准备好测试数据文件

D:\\spark\\CHANGES.txt

Thing is test
hello word
test
test hello word

4. 运行程序

可以得到输出结果

 以上输出,可以验证程序可以正确运行了。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐