微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

spark streaming 1

package com.shujia.spark.streaming

import org.apache.spark.SparkConf
import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.{Durations, StreamingContext}

object Demo1WordCount {
  def main(args: Array[String]): Unit = {


    val conf: SparkConf = new SparkConf()
      .setAppName("streaming")
      .setMaster("local[2]")

    /**
      * 创建streaming上下文对象对象,指定batch时间,多久计算一次
      *
      */
    val ssc = new StreamingContext(conf, Durations.seconds(5))

    //设置checkpoint路径
    ssc.checkpoint("data/checkpoint")
    /**
      * ReceiverInputDStream:被动接收数据,将接收过来的数据放在内存或者磁盘上
      * 接收数据会一直占用资源,所以资源给多一点  local[2]
      *
      * nc -lk 8888
      * yum install nc (如果没有上述命令 ,安装  )
      */
    //读取数据
    val linesDS: ReceiverInputDStream[String] = ssc.socketTextStream("master", 8888)


    //统计单词数量
    val wordsDS: DStream[String] = linesDS.flatMap(_.split(","))
    val kvDS: DStream[(String, Int)] = wordsDS.map((_, 1))

    /**
      * reduceByKey:只统计当前batch的数据,不会进行累加计算
      */

    //    val countDS: DStream[(String, Int)] = kvDS.reduceByKey(_ + _)

    /**
      *
      * @param seq    :当前batch 每一个key所有的value
      * @param option : 之前batch累加计算的结果
      * @return : 返回最新的单词的数量
      */
    def updateFun(seq: Seq[Int], option: Option[Int]): Option[Int] = {

      //计算当前batch单词的数量
      val currCount: Int = seq.sum

      //获取之前单词的数量
      val lastCount: Int = option.getorElse(0)

      //返回最新单词的数量
      Some(currCount + lastCount)

    }


    /**
      * 有状态算子
      * updateStateByKey:每一次计算更新每一个key的状态(单词的数量)
      *
      * 需要设置checkpoint的路径,用于保存计算中的状态
      */
  val countDS: DStream[(String, Int)] = kvDS.updateStateByKey(updateFun)

    //打印数据
    countDS.print()

    //启动streaming
    ssc.start()
    ssc.awaitTermination() //等待关闭    这三行代码必须要写
    ssc.stop()


  }
}

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐