微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Flink常用API之HDFS文件Source

package source

import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment

/**
 * @Author yqq
 * @Date 2021/12/25 13:17
 * @Version 1.0
 */
object HDFSFileSource {
  def main(args: Array[String]): Unit = {
    val ev = StreamExecutionEnvironment.getExecutionEnvironment
    ev.setParallelism(1)
    import org.apache.flink.streaming.api.scala._
    //读取HDFS上读取文件
    val stream: DataStream[String] = ev.readTextFile("hdfs://mycluster/wc.txt")
    //单词计算
    stream.flatMap(_.split(" "))
      .map((_,1))
      .keyBy(0)
      .sum(1)
      .print()
    ev.execute("wordcount")

  }
}

HDFS数据图

[root@node1 ~]# hdfs dfs -cat /wc.txt
21/12/25 14:52:10 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
hello tom 
andy joy 
hello rose 
hello joy 
mark andy 
hello tom 
andy rose 
hello joy

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐