竞争条件下的 Uber-go/zap 和 kafka-go
IT行业相对于一般传统行业,发展更新速度更快,一旦停止了学习,很快就会被行业所淘汰。所以我们需要踏踏实实的不断学习,精进自己的技术,尤其是初学者。今天golang学习网给大家整理了《竞争条件下的 Uber-go/zap 和 kafka-go》,聊聊,我们一起来看看吧!
我正在创建一个自定义记录器,我们可以在其中登录到 std out 和 std err,而且还添加了登录到 kafka 的可能性(代码示例位于:https://github.com/roppa/kafka-go )。我们有多个主题,因此需要多个记录器,但是当我们使用多个记录器时,就会发生一些奇怪的事情。当两个 kafka-go 设置都是异步时,我不会收到任何消费者消息,当一个是异步而另一个是同步时,我们会得到如下内容:
//consumer topica
{"level":"\u001b[34minfo\u001b[0m","timestamp":"2020-12-09t15:31:04.023z","msg":"topic-a log 1","uid":"abc123","ns":"test-service"}
{"level":"\u001b[34minfo\u001b[0m","timestamp":"2020-12-09t15:31:05.078z","msg":"topic-a log 2","uid":"abc123","ns":"test-service"}
{"level":"\u001b[34minfo\u001b[0m","timestamp":"2020-12-09t15:31:06.085z","msg":"topic-a log 3","uid":"abc123","ns":"test-service"}
//consumer topicb
2020-12-09t15:31:06.085z info topic-a log 3 {"uid": "abc123", "ns": "test-service"}
2","uid":"abc123","ns":"test-service"}
更改同步会产生完全不同的效果。我对 go 还很陌生。
这是 main.go:
package main
import (
"context"
"kafka-log/logger"
)
func main() {
loggera := logger.init("test-service", "localhost:9092", "topica", false, false)
loggerb := logger.init("test-service", "localhost:9092", "topicb", false, true)
ctx := context.background()
ctx2 := context.withvalue(ctx, logger.uid, "abc123")
loggera.cinfo(ctx2, "topic-a log 1")
loggerb.cinfo(ctx2, "topic-b log 1")
loggera.cinfo(ctx2, "topic-a log 2")
loggerb.cinfo(ctx2, "topic-b log 2")
loggera.cinfo(ctx2, "topic-a log 3")
loggerb.cinfo(ctx2, "topic-b log 3")
}
这是 logger/logger.go:
package logger
import (
"context"
"os"
"github.com/segmentio/kafka-go"
"go.uber.org/zap"
"go.uber.org/zap/zapcore"
)
type (
key string
// logger type embeds zap and also contains the current system name (namespace, ns)
logger struct {
*zap.logger
ns string
}
// kconfig type for creating a new kafka logger. takes a namespace,
// broker (eg 'localhost:9092'), topic (eg 'topic-a')
kconfig struct {
namespace string
broker string
topic string
async bool
}
producerinterface interface {
writemessages(ctx context.context, msgs ...kafka.message) error
}
// kafkaproducer contains a kafka.producer and kafka topic
kafkaproducer struct {
producer producerinterface
topic string
}
)
const (
// uid - uniquely request identifier
uid key = "request_id"
)
var customconfig = zapcore.encoderconfig{
timekey: "timestamp",
levelkey: "level",
namekey: "logger",
callerkey: "caller",
functionkey: zapcore.omitkey,
messagekey: "msg",
stacktracekey: "stacktrace",
lineending: zapcore.defaultlineending,
encodelevel: zapcore.capitalcolorlevelencoder,
encodetime: zapcore.iso8601timeencoder,
encodeduration: zapcore.secondsdurationencoder,
}
// cinfo this function takes a context as first parameter, extracts specific fields as well as namespace, and calls zap info
func (l *logger) cinfo(ctx context.context, msg string, fields ...zap.field) {
l.info(msg, consolidate(ctx, l.ns, fields...)...)
}
func consolidate(ctx context.context, namespace string, fields ...zap.field) []zap.field {
return append(append(ctxtozapfields(ctx), fields...), zap.string("ns", namespace))
}
// see advanced config example: https://github.com/uber-go/zap/blob/master/example_test.go#l105
var lowpriority = zap.levelenablerfunc(func(lvl zapcore.level) bool {
return lvl < zapcore.errorlevel && lvl > zapcore.debuglevel
})
var debugpriority = zap.levelenablerfunc(func(lvl zapcore.level) bool {
return lvl < zapcore.errorlevel
})
var kafkapriority = zap.levelenablerfunc(func(lvl zapcore.level) bool {
return lvl > zapcore.debuglevel
})
// init creates a new instance of a logger. namespace is the name of the module using the logger. broker and topic are kafa specific,
// if either of these is not set a default console logger is created.
func init(namespace, broker, topic string, debug, async bool) *logger {
var kp *kafkaproducer = nil
if broker != "" && topic != "" {
kp = newkafkaproducer(&kconfig{
broker: broker,
topic: topic,
async: async,
})
}
logger := getlogger(debug, kp)
// logger.info("initiated logger", zap.string("ns", namespace), zap.bool("kafka", kp != nil), zap.bool("debug", debug))
return &logger{logger, namespace}
}
func getlogger(debug bool, kp *kafkaproducer) *zap.logger {
// cores are logger interfaces
var cores []zapcore.core
// optimise message for console output (human readable)
consoleencoder := zapcore.newconsoleencoder(customconfig)
// lock wraps a writesyncer in a mutex to make it safe for concurrent use.
// see https://godoc.org/go.uber.org/zap/zapcore
cores = append(cores,
zapcore.newcore(consoleencoder, zapcore.lock(os.stdout), getpriority(debug)),
zapcore.newcore(consoleencoder, zapcore.lock(os.stderr), zap.errorlevel),
)
if kp != nil {
cores = append(cores, zapcore.newcore(zapcore.newjsonencoder(customconfig), zapcore.lock(zapcore.addsync(kp)), kafkapriority))
}
// join inputs, encoders, level-handling functions into cores, then "tee" together
logger := zap.new(zapcore.newtee(cores...))
defer logger.sync()
return logger
}
func getpriority(debug bool) zap.levelenablerfunc {
if debug {
return debugpriority
}
return lowpriority
}
func ctxtozapfields(ctx context.context) []zap.field {
reqid, _ := ctx.value(uid).(string)
return []zap.field{
zap.string("uid", reqid),
}
}
// newkafkaproducer instantiates a kafka.producer, saves topic, and returns a kafkaproducer
func newkafkaproducer(c *kconfig) *kafkaproducer {
return &kafkaproducer{
producer: kafka.newwriter(kafka.writerconfig{
brokers: []string{c.broker},
topic: c.topic,
balancer: &kafka.hash{},
async: c.async,
requiredacks: -1, // -1 = all
}),
topic: c.topic,
}
}
// write takes a message as a byte slice, wraps in a kafka.message and calls kafka produce
func (kp *kafkaproducer) write(msg []byte) (int, error) {
return len(msg), kp.producer.writemessages(context.background(), kafka.message{
key: []byte(""),
value: msg,
})
}
我正在为消费者使用这些:
docker exec kafka kafka-console-consumer --bootstrap-server localhost:9092 --topic topica docker exec kafka kafka-console-consumer --bootstrap-server localhost:9092 --topic topicb
这是我的 kafka docker-compose:
version: '3.8'
services:
zookeeper:
image: confluentinc/cp-zookeeper
networks:
- kafka-net
container_name: zookeeper
environment:
ZOOKEEPER_CLIENT_PORT: 2181
ports:
- 2181:2181
kafka:
image: confluentinc/cp-kafka
networks:
- kafka-net
container_name: kafka
environment:
KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1
ALLOW_PLAINTEXT_LISTENER: "yes"
KAFKA_LISTENERS-INTERNAL: //kafka:29092,EXTERNAL://localhost:9092
KAFKA_ADVERTISED: INTERNAL://kafka:29092,EXTERNAL://localhost:9092
KAFKA_ADVERTISED_LISTENERS: INTERNAL://kafka:29092,EXTERNAL://localhost:9092
KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: INTERNAL:PLAINTEXT,EXTERNAL:PLAINTEXT
KAFKA_INTER_BROKER_LISTENER_NAME: INTERNAL
ports:
- 9092:9092
- 29092:29092
depends_on:
- zookeeper
restart: on-failure
networks:
kafka-net:
driver: bridge
解决方案
我想象你的程序在异步消息有时间发送之前就退出了(尽管如果我正确地阅读你的示例,我很奇怪“topic-a log 3”是唯一的日志消息)。与 javascript 不同,go 不会等待所有线程/goroutines 终止才退出。
还将突出显示 kafka-go 异步配置的文档字符串:
// Setting this flag to true causes the WriteMessages method to never block. // It also means that errors are ignored since the caller will not receive // the returned value. Use this only if you don't care about guarantees of // whether the messages were written to kafka.
在解决方案方面:我认为您可以通过在编写器上调用 close 来解决此问题:
https://pkg.go.dev/github.com/segmentio/kafka-go#Writer.Close
您需要在退出之前显示底层 kafkaproducer.producer 并调用 kafkaproducer.producer.close。
可能有更聪明的方法来构造清理,但我似乎找不到比仅在编写器上调用 close 更简单的方法来刷新待处理消息。
今天带大家了解了的相关知识,希望对你有所帮助;关于Golang的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~
解决win10应用程序无法正常启动0xc0000142问题
- 上一篇
- 解决win10应用程序无法正常启动0xc0000142问题
- 下一篇
- 揭秘Java变量类型:深入探讨各种变量类型的特性
-
- Golang · Go问答 | 1年前 |
- 在读取缓冲通道中的内容之前退出
- 139浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 戈兰岛的全球 GOPRIVATE 设置
- 204浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何将结构作为参数传递给 xml-rpc
- 325浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何用golang获得小数点以下两位长度?
- 478浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何通过 client-go 和 golang 检索 Kubernetes 指标
- 486浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 将多个“参数”映射到单个可变参数的习惯用法
- 439浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 将 HTTP 响应正文写入文件后出现 EOF 错误
- 357浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 结构中映射的匿名列表的“复合文字中缺少类型”
- 352浏览 收藏
-
- Golang · Go问答 | 1年前 |
- NATS Jetstream 的性能
- 101浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何将复杂的字符串输入转换为mapstring?
- 440浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 相当于GoLang中Java将Object作为方法参数传递
- 212浏览 收藏
-
- Golang · Go问答 | 1年前 |
- 如何确保所有 goroutine 在没有 time.Sleep 的情况下终止?
- 143浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3166次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3379次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3408次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4512次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3788次使用
-
- GoLand调式动态执行代码
- 2023-01-13 502浏览
-
- 用Nginx反向代理部署go写的网站。
- 2023-01-17 502浏览
-
- Golang取得代码运行时间的问题
- 2023-02-24 501浏览
-
- 请问 go 代码如何实现在代码改动后不需要Ctrl+c,然后重新 go run *.go 文件?
- 2023-01-08 501浏览
-
- 如何从同一个 io.Reader 读取多次
- 2023-04-11 501浏览

