Sarama Kafka Consumer Group函数的输出
在 Go 语言中使用 Sarama 库处理来自 Kafka 的消息时,需要将原始代码中的 partitionconsumer 替换为 sarama newconsumergroup 包。为此,需要创建一个 consumergroup,并在其 ConsumeClaim 方法中处理消息。新创建的 KafkaInput 结构应包含一个消息通道,并通过 goroutine 从消费者组接收消息并将其推送到该通道。最终,Read 方法将从该通道中读取消息并将其转换为 HTTP 有效负载。
我对 go lang 非常陌生,并尝试对使用 sarama 库使用来自 kafka 的消息的开源库进行一些调整。原始代码可以在这里找到。
原始包实现了一个 partitionconsumer,如果不需要在使用同一主题的多个消费者之间保持读取一致性,它就可以正常工作,但是,这对我来说不起作用。
我在同一个应用程序中完成了一些工作,使用我在网上找到的一些示例来实现 sarama newconsumergroup 包。
下面是我当前正在运行的代码:
package main import ( "context" // "flag" "os" "os/signal" "sync" "syscall" "encoding/json" "log" "strings" "github.com/shopify/sarama" // "github.com/shopify/sarama/mocks" ) // kafkainput is used for recieving kafka messages and // transforming them into http payloads. type kafkainput struct { config *kafkaconfig // consumers []sarama.partitionconsumer messages chan *sarama.consumermessage } var ( brokers = "" version = "" group = "" topics = "" assignor = "" oldest = true verbose = false ) // consumer represents a sarama consumer group consumer type consumer struct { ready chan bool } // newkafkainput creates instance of kafka consumer client. func newkafkainput(address string, config *kafkaconfig) *kafkainput { /** * construct a new sarama configuration. * the kafka cluster version has to be defined before the consumer/producer is initialized. */ c := sarama.newconfig() // configuration options go here log.println("starting a new sarama consumer") if verbose { sarama.logger = log.new(os.stdout, "[sarama] ", log.lstdflags) } version, err := sarama.parsekafkaversion("2.1.1") if err != nil { log.panicf("error parsing kafka version: %v", err) } c.version = version if oldest { c.consumer.offsets.initial = sarama.offsetoldest } /** * setup a new sarama consumer group */ consumer := consumer{ready: make(chan bool)} ctx, cancel := context.withcancel(context.background()) client, err := sarama.newconsumergroup(strings.split(config.host, ","), config.group, c) if err != nil { log.panicf("error creating consumer group client: %v", err) } wg := &sync.waitgroup{} wg.add(1) go func() { defer wg.done() for { if err := client.consume(ctx, []string{config.topic}, &consumer); err != nil { log.panicf("error from consumer: %v", err) } // check if context was cancelled, signaling that the consumer should stop if ctx.err() != nil { return } consumer.ready = make(chan bool) } }() <-consumer.ready // await till the consumer has been set up log.println("sarama consumer up and running!...") sigterm := make(chan os.signal, 1) signal.notify(sigterm, syscall.sigint, syscall.sigterm) select { case <-ctx.done(): log.println("terminating: context cancelled") case <-sigterm: log.println("terminating: via signal") } cancel() wg.wait() if err = client.close(); err != nil { log.panicf("error closing client: %v", err) } i := &kafkainput{ config: config, // consumers: make([]sarama.partitionconsumer, len(partitions)), // messages: make(chan *sarama.consumermessage, 256), messages: make(chan *sarama.consumermessage, 256), } return i } // consumeclaim must start a consumer loop of consumergroupclaim's messages(). func (consumer *consumer) consumeclaim(session sarama.consumergroupsession, claim sarama.consumergroupclaim) error { // note: // do not move the code below to a goroutine. // the `consumeclaim` itself is called within a goroutine, see: // https://github.com/shopify/sarama/blob/master/consumer_group.go#l27-l29 for message := range claim.messages() { log.printf("message claimed: value = %s, timestamp = %v, topic = %s", string(message.value), message.timestamp, message.topic) session.markmessage(message, "") } return nil } // errorhandler should receive errors func (i *kafkainput) errorhandler(consumer sarama.partitionconsumer) { for err := range consumer.errors() { log.println("failed to read access log entry:", err) } } // read comment func (i *kafkainput) read(data []byte) (int, error) { message := <-i.messages if !i.config.usejson { copy(data, message.value) return len(message.value), nil } var kafkamessage kafkamessage json.unmarshal(message.value, &kafkamessage) buf, err := kafkamessage.dump() if err != nil { log.println("failed to decode access log entry:", err) return 0, err } copy(data, buf) return len(buf), nil } func (i *kafkainput) string() string { return "kafka input: " + i.config.host + "/" + i.config.topic } // setup is run at the beginning of a new session, before consumeclaim func (consumer *consumer) setup(sarama.consumergroupsession) error { // mark the consumer as ready close(consumer.ready) return nil } // cleanup is run at the end of a session, once all consumeclaim goroutines have exited func (consumer *consumer) cleanup(sarama.consumergroupsession) error { return nil }
kafkaconfig携带消费者的groupid和topic。当我运行这个程序时,消费者启动并使用正确的组从正确的主题中读取内容,并使用在此函数中创建的 consumerclaim 将其打印到 stdout:
func (consumer *consumer) consumeclaim(session sarama.consumergroupsession, claim sarama.consumergroupclaim) error { for message := range claim.messages() { log.printf("message claimed: value = %s, timestamp = %v, topic = %s", string(message.value), message.timestamp, message.topic) session.markmessage(message, "") } return nil }然而,我相信我需要的是
newkafkainput
函数返回 *kafkainput
,并将声明中的消息添加到结构中(如果我在这里使用了错误的术语,请原谅我,这是我的第一次 go rodeo)。
... i := &kafkainput{ config: config, // consumers: make([]sarama.partitionconsumer, len(partitions)), // messages: make(chan *sarama.consumermessage, 256), messages: make(chan *sarama.consumermessage, 256), } return i }
在此处完成的原始示例中:
func newkafkainput(address string, config *kafkaconfig) *kafkainput { ... go func(consumer sarama.partitionconsumer) { defer consumer.close() for message := range consumer.messages() { i.messages <- message } }(consumer) ... }
我花了几天时间尝试将函数移入和移出 newkafakinput
函数,尝试将消息添加到函数外部的 kafakinput
结构以及其间的所有内容。我就是无法让它发挥作用。 newkafakinput
函数需要返回 *kafkainput
以及任何消息,以便该函数可以完成:
func (i *KafkaInput) Read(data []byte) (int, error) { message := <-i.messages if !i.config.useJSON { copy(data, message.Value) return len(message.Value), nil } var kafkaMessage KafkaMessage json.Unmarshal(message.Value, &kafkaMessage) buf, err := kafkaMessage.Dump() if err != nil { log.Println("Failed to decode access log entry:", err) return 0, err } copy(data, buf) return len(buf), nil }
我也完全有可能把这件事弄得一团糟,但是任何帮助和意见都会受到赞赏。
谢谢
解决方案
这是我的问题的解决方案。我的 goroutine 阻塞了主函数,需要将它们分解。如果下面的代码没有任何意义,这里是我正在修改的程序的链接:https://github.com/buger/goreplay。如果我能得到所有者的回复,我计划清理代码并提交拉取请求,或者可能发布叉。
package main import ( "context" "encoding/json" "strings" "os" "log" "github.com/Shopify/sarama" ) // KafkaInput is used for recieving Kafka messages and // transforming them into HTTP payloads. type KafkaInput struct { sarama.ConsumerGroup config *KafkaConfig consumer Consumer messages chan *sarama.ConsumerMessage } // Consumer represents a Sarama consumer group consumer type Consumer struct { ready chan bool messages chan *sarama.ConsumerMessage } var ( brokers = "" version = "" group = "" topics = "" assignor = "" oldest = true verbose = false ) // NewKafkaInput creates instance of kafka consumer client. func NewKafkaInput(address string, config *KafkaConfig) *KafkaInput { /** * Construct a new Sarama configuration. * The Kafka cluster version has to be defined before the consumer/producer is initialized. */ c := sarama.NewConfig() // Configuration options go here log.Printf("KafkaConfig: %s", config.host) log.Printf("KafkaConfig: %s", config.group) log.Printf("KafkaConfig: %s", config.topic) log.Println("Starting a new Sarama consumer") if verbose { sarama.Logger = log.New(os.Stdout, "[sarama] ", log.LstdFlags) } version, err := sarama.ParseKafkaVersion("2.1.1") if err != nil { log.Panicf("Error parsing Kafka version: %v", err) } c.Version = version if oldest { c.Consumer.Offsets.Initial = sarama.OffsetOldest } group, err := sarama.NewConsumerGroup(strings.Split(config.host, ","), config.group, c) /** * Setup a new Sarama consumer group */ consumer := Consumer{ ready: make(chan bool), messages: make(chan *sarama.ConsumerMessage, 256), } i := &KafkaInput{ ConsumerGroup: group, config: config, messages: make(chan *sarama.ConsumerMessage, 256), consumer: consumer, } go i.loop([]string{config.topic}) i.messages = consumer.messages return i } //ConsumeClaim and stuff func (i *KafkaInput) ConsumeClaim(s sarama.ConsumerGroupSession, c sarama.ConsumerGroupClaim) error { for msg := range c.Messages() { s.MarkMessage(msg, "") i.Push(msg) } return nil } func (i *KafkaInput) loop(topic []string) { ctx := context.Background() for { if err := i.Consume(ctx, []string{i.config.topic}, i); err != nil { return } } } // Push Messages func (i *KafkaInput) Push(m *sarama.ConsumerMessage) { if i.consumer.messages != nil { log.Printf("MSGPUSH: %s", m) i.consumer.messages <- m } } func (i *KafkaInput) Read(data []byte) (int, error) { message := <-i.messages log.Printf("Msg: %s", string(message.Value)) if !i.config.useJSON { copy(data, message.Value) return len(message.Value), nil } var kafkaMessage KafkaMessage json.Unmarshal(message.Value, &kafkaMessage) buf, err := kafkaMessage.Dump() if err != nil { log.Println("Failed to decode access log entry:", err) return 0, err } copy(data, buf) return len(buf), nil } func (i *KafkaInput) String() string { return "Kafka Input: " + i.config.host + "/" + i.config.topic } // Setup is run at the beginning of a new session, before ConsumeClaim func (i *KafkaInput) Setup(s sarama.ConsumerGroupSession) error { return nil } // Cleanup is run at the end of a session, once all ConsumeClaim goroutines have exited func (i *KafkaInput) Cleanup(s sarama.ConsumerGroupSession) error { return nil }
今天关于《Sarama Kafka Consumer Group函数的输出》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

- 上一篇
- 探索Golang编程的未来路径

- 下一篇
- Web服务开发中的类型未定义错误
-
- Golang · Go问答 | 1年前 |
- 在读取缓冲通道中的内容之前退出
- 139浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 戈兰岛的全球 GOPRIVATE 设置
- 204浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何将结构作为参数传递给 xml-rpc
- 325浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何用golang获得小数点以下两位长度?
- 477浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何通过 client-go 和 golang 检索 Kubernetes 指标
- 486浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 将多个“参数”映射到单个可变参数的习惯用法
- 439浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 将 HTTP 响应正文写入文件后出现 EOF 错误
- 357浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 结构中映射的匿名列表的“复合文字中缺少类型”
- 352浏览 收藏
-
- Golang · Go问答 | 1年前 |
- NATS Jetstream 的性能
- 101浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何将复杂的字符串输入转换为mapstring?
- 440浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 相当于GoLang中Java将Object作为方法参数传递
- 212浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何确保所有 goroutine 在没有 time.Sleep 的情况下终止?
- 143浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 笔灵AI生成答辩PPT
- 探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
- 30次使用
-
- 知网AIGC检测服务系统
- 知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
- 44次使用
-
- AIGC检测-Aibiye
- AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
- 40次使用
-
- 易笔AI论文
- 易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
- 53次使用
-
- 笔启AI论文写作平台
- 笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
- 43次使用
-
- GoLand调式动态执行代码
- 2023-01-13 502浏览
-
- 用Nginx反向代理部署go写的网站。
- 2023-01-17 502浏览
-
- Golang取得代码运行时间的问题
- 2023-02-24 501浏览
-
- 请问 go 代码如何实现在代码改动后不需要Ctrl+c,然后重新 go run *.go 文件?
- 2023-01-08 501浏览
-
- 如何从同一个 io.Reader 读取多次
- 2023-04-11 501浏览