这篇文章给大家分享的是有关flink connector之FlinkKafkaProducer的示例代码的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
示例代码如下
package flink.streaming import org.apache.flink.streaming.api.scala._ import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer import org.apache.flink.api.common.serialization.SimpleStringSchema object StreamingtoKafkasink { def main(args: Array[String]): Unit = { val env = StreamExecutionEnvironment.getExecutionEnvironment val set = env.readTextFile("d://person") val producer = new FlinkKafkaProducer[String]("bigdata00:9092,bigdata00:9092","test1",new SimpleStringSchema) set.addSink(producer) env.execute("kafkasink") } }
感谢各位的阅读!关于“flink connector之FlinkKafkaProducer的示例代码”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。