这篇文章将为大家详细讲解有关Kafka 1.0.0的安装使用以及命令是什么,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。
0.三台机器 data133,data135,data136 1.修改配置文件 server.properties broker.id=1 #全局唯一 log.dirs=/data/kafka/log #kafka存放数据的目录 zookeeper.connect=data135:2181,data133:2181,data136:2181 port=9092 host.name=data136 然后分发到另两台机器 data133:broker.id=2 host.name=data133 data135:broker.id=2 host.name=data135 2.后台 2.后台启动kafka server bin目录下 nohup ./kafka-server-start.sh ../config/server.properties & 3.创建topic ./kafka-topics.sh --create --topic "test1" --partitions 5 --replication-factor 1 --zookeeper data133 4.通过shell脚本生产消费 生产:./kafka-console-producer.sh -topic test --broker-list data133:9092,data135:9092,data136:9092 消费:./kafka-console-consumer.sh --topic test --from-beginning --bootstrap-server data133:9092 5.显示所有的topic ./kafka-topics.sh --list --zookeeper bigdata03 --------------------------------------------------------------- flume整合kafka,flume的配置文件 kafka-dest.conf # Name the components on this agent a1.sources=sr1 a1.channels=ch2 a1.sinks=si1 # Describe/configure the source a1.sources.sr1.type=exec a1.sources.sr1.command=tail -F /home/ch.log a1.sources.sr1.batchSize=50 # Describe the sink a1.sinks.si1.type=org.apache.flume.sink.kafka.KafkaSink a1.sinks.si1.kafka.bootstrap.servers=bigdata01:9092,bigdata02:9092,bigdata03:9092 a1.sinks.si1.kafka.topic=test7 a1.sinks.si1.flumeBatchSize=100 a1.sinks.si1.kafka.producer.acks=1 a1.sinks.si1.kafka.producer.partitioner.class=org.apache.kafka.clients.producer.internals.DefaultPartitioner # Use a channel which buffers events in memory a1.channels.ch2.type = memory a1.channels.ch2.capacity = 1000000 a1.channels.ch2.transactionCapacity = 1000 a1.sources.sr1.channels=ch2 a1.sinks.si1.channel=ch2 #the command to start a agent #bin/flume-ng agent -n a1 -c conf -f conf/fkafka-dest.conf
关于Kafka 1.0.0的安装使用以及命令是什么就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。