当前位置:首页 > 文章列表 > Golang > Go教程 > gozero微服务高在请求量下如何优化

gozero微服务高在请求量下如何优化

来源:脚本之家 2023-01-01 14:45:51 0浏览 收藏

知识点掌握了,还需要不断练习才能熟练运用。下面golang学习网给大家带来一个Golang开发实战,手把手教大家学习《gozero微服务高在请求量下如何优化》,在实现功能的过程中也带大家重新温习相关知识点,温故而知新,回头看看说不定又有不一样的感悟!

引言

前两篇文章我们介绍了缓存使用的各种最佳实践,首先介绍了缓存使用的基本姿势,分别是如何利用go-zero自动生成的缓存和逻辑代码中缓存代码如何写,接着讲解了在面对缓存的穿透、击穿、雪崩等常见问题时的解决方案,最后还重点讲解了如何保证缓存的一致性。

因为缓存对于高并发服务来说实在是太重要了,所以这篇文章我们还会继续一起学习下缓存相关的知识。

本地缓存

当我们遇到极端热点数据查询的时候,这个时候就要考虑本地缓存了。热点本地缓存主要部署在应用服务器的代码中,用于阻挡热点查询对于Redis等分布式缓存或者数据库的压力。

在我们的商城中,首页Banner中会放一些广告商品或者推荐商品,这些商品的信息由运营在管理后台录入和变更。这些商品的请求量非常大,即使是Redis也很难扛住,所以这里我们可以使用本地缓存来进行优化。

在product库中先建一张商品运营表product_operation,为了简化只保留必要字段,product_id为推广运营的商品id,status为运营商品的状态,status为1的时候会在首页Banner中展示该商品。

CREATE TABLE `product_operation` (
  `id` bigint unsigned NOT NULL AUTO_INCREMENT,
  `product_id` bigint unsigned NOT NULL DEFAULT 0 COMMENT '商品id',
  `status` int NOT NULL DEFAULT '1' COMMENT '运营商品状态 0-下线 1-上线',
  `create_time` datetime NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
  `update_time` datetime NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
  PRIMARY KEY (`id`),
  KEY `ix_update_time` (`update_time`)
) ENGINE=InnoDB  DEFAULT CHARSET=utf8mb4 COMMENT='商品运营表';

本地缓存的实现比较简单,我们可以使用map来自己实现,在go-zero的collection中提供了Cache来实现本地缓存的功能,我们直接拿来用,重复造轮子从来不是一个明智的选择,localCacheExpire为本地缓存过期时间,Cache提供了Get和Set方法,使用非常简单

localCache, err := collection.NewCache(localCacheExpire)

先从本地缓存中查找,如果命中缓存则直接返回。没有命中缓存的话需要先从数据库中查询运营位商品id,然后再聚合商品信息,最后回塞到本地缓存中。详细代码逻辑如下:

func (l *OperationProductsLogic) OperationProducts(in *product.OperationProductsRequest) (*product.OperationProductsResponse, error) {
  opProducts, ok := l.svcCtx.LocalCache.Get(operationProductsKey)
  if ok {
    return &product.OperationProductsResponse{Products: opProducts.([]*product.ProductItem)}, nil
  }
  pos, err := l.svcCtx.OperationModel.OperationProducts(l.ctx, validStatus)
  if err != nil {
    return nil, err
  }
  var pids []int64
  for _, p := range pos {
    pids = append(pids, p.ProductId)
  }
  products, err := l.productListLogic.productsByIds(l.ctx, pids)
  if err != nil {
    return nil, err
  }
  var pItems []*product.ProductItem
  for _, p := range products {
    pItems = append(pItems, &product.ProductItem{
      ProductId: p.Id,
      Name:      p.Name,
    })
  }
  l.svcCtx.LocalCache.Set(operationProductsKey, pItems)
  return &product.OperationProductsResponse{Products: pItems}, nil
}

使用grpurl调试工具请求接口,第一次请求cache miss后,后面的请求都会命中本地缓存,等到本地缓存过期后又会重新回源db加载数据到本地缓存中

~ grpcurl -plaintext -d '{}' 127.0.0.1:8081 product.Product.OperationProducts
{
  "products": [
    {
      "productId": "32",
      "name": "电风扇6"
    },
    {
      "productId": "31",
      "name": "电风扇5"
    },
    {
      "productId": "33",
      "name": "电风扇7"
    }
  ]
}

注意,并不是所有信息都适用于本地缓存,本地缓存的特点是请求量超高,同时业务上能够允许一定的不一致,因为本地缓存一般不会主动做更新操作,需要等到过期后重新回源db后再更新。所以在业务中要视情况而定看是否需要使用本地缓存。

自动识别热点数据

首页Banner场景是由运营人员来配置的,也就是我们能提前知道可能产生的热点数据,但有些情况我们是不能提前预知数据会成为热点的。

所以就需要我们能自适应地自动的识别这些热点数据,然后把这些数据提升为本地缓存。

我们维护一个滑动窗口,比如滑动窗口设置为10s,就是要统计这10s内有哪些key被高频访问,一个滑动窗口中对应多个Bucket,每个Bucket中对应一个map,map的key为商品的id,value为商品对应的请求次数。

接着我们可以定时的(比如10s)去统计当前所有Buckets中的key的数据,然后把这些数据导入到大顶堆中,轻而易举的可以从大顶堆中获取topK的key,我们可以设置一个阈值,比如在一个滑动窗口时间内某一个key访问频次超过500次,就认为该key为热点key,从而自动地把该key升级为本地缓存。

缓存使用技巧

下面介绍一些缓存使用的小技巧

  • key的命名要尽量易读,即见名知意,在易读的前提下长度要尽可能的小,以减少资源的占用,对于value来说可以用int就尽量不要用string,对于小于N的value,redis内部有shared_object缓存。
  • 在redis使用hash的情况下进行key的拆分,同一个hash key会落到同一个redis节点,hash过大的情况下会导致内存以及请求分布的不均匀,考虑对hash进行拆分为小的hash,使得节点内存均匀避免单节点请求热点。
  • 为了避免不存在的数据请求,导致每次请求都缓存miss直接打到数据库中,进行空缓存的设置。
  • 缓存中需要存对象的时候,序列化尽量使用protobuf,尽可能减少数据大小。
  • 新增数据的时候要保证缓存务必存在的情况下再去操作新增,使用Expire来判断缓存是否存在。
  • 对于存储每日登录场景的需求,可以使用BITSET,为了避免单个BITSET过大或者热点,可以进行sharding。
  • 在使用sorted set的时候,避免使用zrange或者zrevrange返回过大的集合,复杂度较高。
  • 在进行缓存操作的时候尽量使用PIPELINE,但也要注意避免集合过大。
  • 避免超大的value。
  • 缓存尽量要设置过期时间。
  • 慎用全量操作命令,比如Hash类型的HGETALL、Set类型的SMEMBERS等,这些操作会对Hash和Set的底层数据结构进行全量扫描,如果数据量较多的话,会阻塞Redis主线程。
  • 获取集合类型的全量数据可以使用SSCAN、HSCAN等命令分批返回集合中的数据,减少对主线程的阻塞。
  • 慎用MONITOR命令,MONITOR命令会把监控到的内容持续写入输出缓冲区,如果线上命令操作很多,输出缓冲区很快就会溢出,会对Redis性能造成影响。
  • 生产环境禁用KEYS、FLUSHALL、FLUSHDB等命令。

结束语

已知的热点缓存比较简单,从数据库中提前加载到内存中即可,未知的热点缓存我们需要自适应的识别出热点的数据,然后把这些热点的数据升级为本地缓存。最后介绍了一些实际生产中缓存使用的一些小技巧,在生产环境中要活灵活用尽量避免问题的产生。

代码仓库: https://github.com/zhoushuguang/lebron

项目地址: https://github.com/zeromicro/go-zero

本篇文章介绍了如何使用本地热点缓存应对超高的请求,热点缓存又分为已知的热点缓存和未知的热点缓存,希望大家以后多多支持golang学习网!

好了,本文到此结束,带大家了解了《gozero微服务高在请求量下如何优化》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多Golang知识!

版本声明
本文转载于:脚本之家 如有侵犯,请联系study_golang@163.com删除
Go读写锁操作方法示例详解Go读写锁操作方法示例详解
上一篇
Go读写锁操作方法示例详解
go zero微服务实战处理每秒上万次的下单请求
下一篇
go zero微服务实战处理每秒上万次的下单请求
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 笔灵AI生成答辩PPT:高效制作学术与职场PPT的利器
    笔灵AI生成答辩PPT
    探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
    12次使用
  • 知网AIGC检测服务系统:精准识别学术文本中的AI生成内容
    知网AIGC检测服务系统
    知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
    22次使用
  • AIGC检测服务:AIbiye助力确保论文原创性
    AIGC检测-Aibiye
    AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
    30次使用
  • 易笔AI论文平台:快速生成高质量学术论文的利器
    易笔AI论文
    易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
    38次使用
  • 笔启AI论文写作平台:多类型论文生成与多语言支持
    笔启AI论文写作平台
    笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
    35次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码