Kafka消费示例
Kafka消费示例
Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据,具有高性能、持久化、多副本备份、横向扩展等特点。本文介绍了如何使用Go语言发送和接收kafka消息。
来源
https://www.liwenzhou.com/posts/Go/go_kafka/
启动Kafka
上一篇博客中,讲了kafka的安装和启动
# 启动Zookeeper
.\zookeeper-server-start.bat ..\..\config\zookeeper.properties
# 启动kafka
.\kafka-server-start.bat ..\..\config\server.properties
sarama
Go语言中连接kafka使用第三方库:github.com/Shopify/sarama。
下载及安装
go get github.com/Shopify/sarama
注意事项
sarama
v1.20之后的版本加入了zstd
压缩算法,需要用到cgo,在Windows平台编译时会提示类似如下错误:
# github.com/DataDog/zstd
exec: "gcc":executable file not found in %PATH%
所以在Windows平台请使用v1.19版本的sarama。
连接kafka发送消息
package main
import (
"fmt"
"github.com/Shopify/sarama"
)
// 基于sarama第三方库开发的kafka client
func main() {
config := sarama.NewConfig()
config.Producer.RequiredAcks = sarama.WaitForAll // 发送完数据需要leader和follow都确认
config.Producer.Partitioner = sarama.NewRandomPartitioner // 新选出一个partition
config.Producer.Return.Successes = true // 成功交付的消息将在success channel返回
// 构造一个消息
msg := &sarama.ProducerMessage{}
msg.Topic = "web_log"
msg.Value = sarama.StringEncoder("this is a test log")
// 连接kafka
client, err := sarama.NewSyncProducer([]string{"192.168.1.7:9092"}, config)
if err != nil {
fmt.Println("producer closed, err:", err)
return
}
defer client.Close()
// 发送消息
pid, offset, err := client.SendMessage(msg)
if err != nil {
fmt.Println("send msg failed, err:", err)
return
}
fmt.Printf("pid:%v offset:%v\n", pid, offset)
}
连接kafka消费消息
package main
import (
"fmt"
"github.com/Shopify/sarama"
)
// kafka consumer
func main() {
consumer, err := sarama.NewConsumer([]string{"127.0.0.1:9092"}, nil)
if err != nil {
fmt.Printf("fail to start consumer, err:%v\n", err)
return
}
partitionList, err := consumer.Partitions("web_log") // 根据topic取到所有的分区
if err != nil {
fmt.Printf("fail to get list of partition:err%v\n", err)
return
}
fmt.Println(partitionList)
for partition := range partitionList { // 遍历所有的分区
// 针对每个分区创建一个对应的分区消费者
pc, err := consumer.ConsumePartition("web_log", int32(partition), sarama.OffsetNewest)
if err != nil {
fmt.Printf("failed to start consumer for partition %d,err:%v\n", partition, err)
return
}
defer pc.AsyncClose()
// 异步从每个分区消费信息
go func(sarama.PartitionConsumer) {
for msg := range pc.Messages() {
fmt.Printf("Partition:%d Offset:%d Key:%v Value:%v", msg.Partition, msg.Offset, msg.Key, msg.Value)
}
}(pc)
}
}
LogTransfer实现
参考源码 20_LogTransfer
LogTransfer的主要功能,就是将kafka中的日志信息取出来,然后发送到ElasticSearch中,下面我们就需要编码实现以下过程
文件结构
LogTransfer首先包含多个模块
- kafka:用于kafka操作相关
- es:用于es操作相关
- conf:配置相关
Conf模块
conf模块是配置模块,用于进行LogTransfer的配置
cfg.ini
我们使用ini管理配置信息
[kafka]
address=127.0.0.1:9092
topic=web_log
[es]
address=127.0.0.1:9200
cfg.go
然后定义配置类的结构体
package conf
type LogTransferCfg struct {
KafkaCfg `ini:"kafka"` // 这个对应ini文件中的 [kafka]
EsCfg `ini:"es"` // 这个对应ini文件中的 [es]
}
// Kafka配置类
type KafkaCfg struct {
Address string `ini:"address"`
Topic string `ini:"topic"`
}
// Es配置类
type EsCfg struct {
Address string `ini:"address"`
}
你可能感兴趣的文章
0
赞
热门推荐
-
2、 - 优质文章
-
3、 gate.io
-
8、 golang
-
9、 openharmony
-
10、 Vue中input框自动聚焦