当前位置:首页 > 文章列表 > Golang > Go问答 > Prometheus Exporter - 直接检测与自定义收集器

Prometheus Exporter - 直接检测与自定义收集器

来源:stackoverflow 2024-03-30 19:33:34 0浏览 收藏

一分耕耘,一分收获!既然打开了这篇文章《Prometheus Exporter - 直接检测与自定义收集器》,就坚持看下去吧!文中内容包含等等知识点...希望你能在阅读本文后,能真真实实学到知识或者帮你解决心中的疑惑,也欢迎大佬或者新人朋友们多留言评论,多给建议!谢谢!

问题内容

我目前正在为遥测网络应用程序编写 prometheus 导出器。

我已阅读此处的文档“编写导出器”,虽然我了解实现自定义收集器以避免竞争条件的用例,但我不确定我的用例是否适合直接检测。

基本上,网络指标由网络设备通过 grpc 进行流式传输,因此我的导出器只需接收它们,而不必有效地抓取它们。

我使用了以下代码的直接检测:

  • 我使用 promauto 包声明我的指标,以保持代码紧凑:
package metrics

import (
    "github.com/lucabrasi83/prom-high-obs/proto/telemetry"
    "github.com/prometheus/client_golang/prometheus"
    "github.com/prometheus/client_golang/prometheus/promauto"
)

var (
    cpu5sec = promauto.newgaugevec(

        prometheus.gaugeopts{
            name: "cisco_iosxe_iosd_cpu_busy_5_sec_percentage",
            help: "the iosd daemon cpu busy percentage over the last 5 seconds",
        },
        []string{"node"},
    )
  • 下面是我如何简单地设置 grpc 协议缓冲区解码消息的指标值:
cpu5sec.withlabelvalues(msg.getnodeidstr()).set(float64(val))
  • 最后,这是我的主循环,它基本上处理我感兴趣的指标的遥测 grpc 流:
for {

        req, err := stream.recv()
        if err == io.eof {
            return nil
        }
        if err != nil {
            logging.peppamonlog(
                "error",
                fmt.sprintf("error while reading client %v stream: %v", clientipsocket, err))

            return err
        }

        data := req.getdata()

        msg := &telemetry.telemetry{}

        err = proto.unmarshal(data, msg)

        if err != nil {
            log.fatalln(err)
        }

        if !logflag {
            logging.peppamonlog(
                "info",
                fmt.sprintf(
                    "telemetry subscription request received - client %v - node %v - yang model path %v",
                    clientipsocket, msg.getnodeidstr(), msg.getencodingpath(),
                ),
            )
        }
        logflag = true

        // flag to determine whether the telemetry device streams accepted yang node path
        yangpathsupported := false

        for _, m := range metrics.ciscometricregistrar {
            if msg.encodingpath == m.encodingpath {

                yangpathsupported = true
                go m.recordmetricfunc(msg)
            }
        }
}
  • 对于我感兴趣的每个指标,我都会使用记录指标函数 (m.recordmetricfunc ) 来注册它,该函数将协议缓冲区消息作为参数,如下所示。
package metrics

import "github.com/lucabrasi83/prom-high-obs/proto/telemetry"

var ciscometricregistrar []ciscotelemetrymetric

type ciscotelemetrymetric struct {
    encodingpath     string
    recordmetricfunc func(msg *telemetry.telemetry)
}

  • 然后我使用 init 函数进行实际注册:

func init() {
    CiscoMetricRegistrar = append(CiscoMetricRegistrar, CiscoTelemetryMetric{
        EncodingPath:     CpuYANGEncodingPath,
        RecordMetricFunc: ParsePBMsgCpuBusyPercent,
    })
}

我使用 grafana 作为前端,到目前为止,在关联 prometheus 公开的指标与直接在设备上检查指标时,尚未发现任何特定的差异。

所以我想了解这是否遵循 prometheus 最佳实践,或者我仍然应该采用自定义收集器路线。

提前致谢。


解决方案


您没有遵循最佳实践,因为您正在使用您链接到的文章所警告的全局指标。使用当前的实现,在设备断开连接后(或者更准确地说,直到您的导出器重新启动),您的仪表板将永远显示 cpu 指标的某个任意且恒定的值。

相反,rpc 方法应该维护一组本地指标,并在方法返回后将其删除。这样,当设备断开连接时,设备的指标就会从抓取输出中消失。

这是执行此操作的一种方法。它使用包含当前活动指标的地图。每个映射元素都是一个特定流的一组指标(我理解它对应于一个设备)。一旦流结束,该条目就会被删除。

package main

import (
    "sync"

    "github.com/prometheus/client_golang/prometheus"
)

// Exporter is a prometheus.Collector implementation.
type Exporter struct {
    // We need some way to map gRPC streams to their metrics. Using the stream
    // itself as a map key is simple enough, but anything works as long as we
    // can remove metrics once the stream ends.
    sync.Mutex
    Metrics map[StreamServer]*DeviceMetrics
}

type DeviceMetrics struct {
    sync.Mutex

    CPU prometheus.Metric
}

// Globally defined descriptions are fine.
var cpu5SecDesc = prometheus.NewDesc(
    "cisco_iosxe_iosd_cpu_busy_5_sec_percentage",
    "The IOSd daemon CPU busy percentage over the last 5 seconds",
    []string{"node"},
    nil, // constant labels
)

// Collect implements prometheus.Collector.
func (e *Exporter) Collect(ch chan<- prometheus.Metric) {
    // Copy current metrics so we don't lock for very long if ch's consumer is
    // slow.
    var metrics []prometheus.Metric

    e.Lock()
    for _, deviceMetrics := range e.Metrics {
        deviceMetrics.Lock()
        metrics = append(metrics,
            deviceMetrics.CPU,
        )
        deviceMetrics.Unlock()
    }
    e.Unlock()

    for _, m := range metrics {
        if m != nil {
            ch <- m
        }
    }
}

// Describe implements prometheus.Collector.
func (e *Exporter) Describe(ch chan<- *prometheus.Desc) {
    ch <- cpu5SecDesc
}

// Service is the gRPC service implementation.
type Service struct {
    exp *Exporter
}

func (s *Service) RPCMethod(stream StreamServer) (*Response, error) {
    deviceMetrics := new(DeviceMetrics)

    s.exp.Lock()
    s.exp.Metrics[stream] = deviceMetrics
    s.exp.Unlock()

    defer func() {
        // Stop emitting metrics for this stream.
        s.exp.Lock()
        delete(s.exp.Metrics, stream)
        s.exp.Unlock()
    }()

    for {
        req, err := stream.Recv()
        // TODO: handle error

        var msg *Telemetry = parseRequest(req) // Your existing code that unmarshals the nested message.

        var (
            metricField *prometheus.Metric
            metric      prometheus.Metric
        )

        switch msg.GetEncodingPath() {
        case CpuYANGEncodingPath:
            metricField = &deviceMetrics.CPU
            metric = prometheus.MustNewConstMetric(
                cpu5SecDesc,
                prometheus.GaugeValue,
                ParsePBMsgCpuBusyPercent(msg), // func(*Telemetry) float64
                "node", msg.GetNodeIdStr(),
            )
        default:
            continue
        }

        deviceMetrics.Lock()
        *metricField = metric
        deviceMetrics.Unlock()
    }

    return nil, &Response{}
}

到这里,我们也就讲完了《Prometheus Exporter - 直接检测与自定义收集器》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!

版本声明
本文转载于:stackoverflow 如有侵犯,请联系study_golang@163.com删除
Java错误:AWT线程错误,如何处理和避免Java错误:AWT线程错误,如何处理和避免
上一篇
Java错误:AWT线程错误,如何处理和避免
如何使用Vue构建可编辑和实时保存的数据表格?
下一篇
如何使用Vue构建可编辑和实时保存的数据表格?
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 笔灵AI生成答辩PPT:高效制作学术与职场PPT的利器
    笔灵AI生成答辩PPT
    探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
    22次使用
  • 知网AIGC检测服务系统:精准识别学术文本中的AI生成内容
    知网AIGC检测服务系统
    知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
    32次使用
  • AIGC检测服务:AIbiye助力确保论文原创性
    AIGC检测-Aibiye
    AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
    36次使用
  • 易笔AI论文平台:快速生成高质量学术论文的利器
    易笔AI论文
    易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
    45次使用
  • 笔启AI论文写作平台:多类型论文生成与多语言支持
    笔启AI论文写作平台
    笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
    39次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码