当前位置:首页 > 文章列表 > Golang > Go问答 > 最大程度提升在受限 NVMe AWS 磁盘上大小为 4-20kb 的文件更新效率(低带宽、低延迟)

最大程度提升在受限 NVMe AWS 磁盘上大小为 4-20kb 的文件更新效率(低带宽、低延迟)

来源:stackoverflow 2024-03-20 14:51:32 0浏览 收藏

在 AWS c6gd.large 实例受限的 NVMe 磁盘上,为平均大小为 4-20 KB 的文件更新优化效率至关重要。由于带宽限制和低延迟,实现传统数据库变得困难。本文探索了各种解决方案,包括使用 Go 通道、Unix 数据报套接字和 SQLite3 进行缓冲和批量插入,以及使用 RocksDB 和 Badger 等数据库。通过基准测试,结果表明 SQLite3 和 unix 数据报套接字的组合可以实现 18,000 次请求/秒,而使用 fdatasync 的文件更新会显着降低性能。此外,文章讨论了文件系统日志排序和强制执行的可能性,以及使用其他消息队列解决方案的潜在好处。

问题内容

在解决我们无法使用数据库的问题陈述时,我们必须实现自己的数据库。

问题陈述:-

  • 使用 blob(平均 4KB,最大 20KB)和 UUID 向服务器发出请求,并将 blob 存储在磁盘上,这听起来是密钥对 blobfs 的完美用例,但问题是,一个请求来自同一个 UUID 将再次生成,我们必须用新数据替换以前写入的数据,即在任何时候我们只关心最新的 blob。

  • 来自同一个 UUID 的请求将每 10 秒发出一次。

  • 可以向服务器发送SIGKILL来检查文件的完整性。丢失最后 3 秒内发出的请求的数据是可以的。不过,我们希望这个时间尽可能短。

  • 写入次数远多于读取次数

  • 我们想知道给定基础设施上可以支持的 UUID 的最大数量。

基础设施:-

  • 我们有一个 c6gd.large AWS 实例,配备 4GB RAM、2 个 CPU、120GB NVMe。但 NVMe 的问题在于带宽受到 AWS 的限制(来源),但是我们确实获得了低延迟(150 微秒以内)。

如下所示,当存储在 5kb 的 bs 中时,我们比 1GB 获得更多的带宽。此外,创建新文件比覆盖现有文件更快。

到目前为止我已经尝试过:-

  • 由于上述基准,对于每个请求,我都会使用每个 UUID 创建/更新一个文件,并将 blob 写入其中。

  • 我尝试过 xfsext4 文件系统,ext4 的性能稍好一些,并且在 2 小时的测试中每秒提供大约 8.5k 请求。这意味着我们可以支持 85k 个探针,因为每个探针每 10 秒仅发送一次请求。

  • 我使用 wrk 进行了测试,发现 CPU 使用率平均约为 70-80%,RAM 使用率约为 3GB(4GB 中)

  • 我已使用 ext4rw、seclabel、noatime、nodiratime、journal_async_commit、nobarrier 这些装载选项装载了磁盘。

  • 注意:我单独对 http 服务器进行了基准测试,它支持 100k Req/sec,因此它不会成为瓶颈。

  • 我使用了 golang,这就是我写入文件的方式。

我读过有关 RocksDB 架构的内容,LSM 树看起来很有前途,但我认为,考虑到 badwidth 仅为 100MBps 左右,压缩过程不会给我们带来巨大的好处。我这样想有错吗?

另一个需要考虑的问题是,当批量中有 1000 次写入写入磁盘时,我假设 fs (ext4) 日志会对这些操作进行排序。这个假设正确吗?如果没有,有没有办法强制执行?另外,我可以(比如 100 毫秒)批量处理这些写入请求吗?

还有其他我可以尝试的想法吗?


正确答案


想法

  • 缓冲请求(go 通道、unix 数据报套接字、redis...)
  • 每 100 毫秒批量更新插入

尝试过

  • badger 数据库和 go 通道
  • rocks db 和 unix 数据报套接字
  • sqlite3 和 unix 数据报套接字

未尝试

  • rabbitmq
  • 卡夫卡
  • 纳兹
  • postgresql
  • redis
front communication db result
net/http(go) go channel badger(go) killed(oom)
net/http(go) unix datagram socket rocksdb(rust) many timeouts
net/http(go) unix datagram socket sqlite3(rust) 18,000 rps

基准结果

延迟分布(毫秒)和每秒请求

50% 75% 90% 99% rps description
0.6 0.7 1.2 9.9 176k 1. create files(direct)
2.4 4.5 7.1 14 54k 2. create files(indirect)
6.9 13 19 71 18k 3. sqlite3
10 18 24 46 13k 4. upsert files(dirty)
339 350 667 1320 0.4k 5. upsret files(fdatasync)
  • 连接数:128
  • 线程:128
  • 持续时间:60 秒
1。创建文件(直接)
  • wrk -> get 请求
  • get 请求 -> actix web 服务器
  • 创建空文件
2.创建文件(间接)
  • wrk -> get 请求
  • get 请求 -> net/http 服务器
  • data(4k) -> unix 数据报套接字
  • unix 数据报套接字 -> 创建空文件
3. sqlite3
  • wrk -> get 请求
  • get 请求 -> net/http 服务器
  • data(4k) -> unix 数据报套接字
  • unix 数据报套接字 -> 通道(buffer=128)
  • channel -> sqlite3(批量更新插入,每 100 毫秒)
4。更新插入文件(脏)
  • wrk -> get 请求
  • get 请求 -> net/http 服务器
  • data(4k) -> unix 数据报套接字
  • unix 数据报套接字 -> ext4(无 fdatasync)
5。 upsret 文件(fdatasync)
  • wrk -> get 请求
  • get 请求 -> net/http 服务器
  • data(4k) -> unix 数据报套接字
  • unix 数据报套接字 -> ext4(临时文件)
  • fdatasync
  • 重命名

本地电脑信息

存储

猫/etc/fstab

label=cloudimg-rootfs   /        ext4   defaults        0 1

cpu信息

fgrep '型号名称' /proc/cpuinfo|cat -n

1  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
     2  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
     3  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
     4  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
     5  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
     6  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
     7  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
     8  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
     9  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
    10  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
    11  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz
    12  model name      : intel(r) core(tm) i7-9750h cpu @ 2.60ghz

dd

% dd if=/dev/zero of=./zeros.dat bs=4096 count=262144
262144+0 records in
262144+0 records out
1073741824 bytes (1.1 gb, 1.0 gib) copied, 2.67881 s, 401 mb/s

% dd if=/dev/zero of=./zeros.dat bs=4096 count=262144 conv=fdatasync
262144+0 records in
262144+0 records out
1073741824 bytes (1.1 gb, 1.0 gib) copied, 1.02852 s, 1.0 gb/s

% dd if=/dev/zero of=./zeros.dat bs=4096 count=262144 conv=fsync
262144+0 records in
262144+0 records out
1073741824 bytes (1.1 gb, 1.0 gib) copied, 0.875749 s, 1.2 gb/s

好了,本文到此结束,带大家了解了《最大程度提升在受限 NVMe AWS 磁盘上大小为 4-20kb 的文件更新效率(低带宽、低延迟)》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多Golang知识!

版本声明
本文转载于:stackoverflow 如有侵犯,请联系study_golang@163.com删除
分析Linux系统中的用户密码存储方式分析Linux系统中的用户密码存储方式
上一篇
分析Linux系统中的用户密码存储方式
在Golang中如何使用C语言的功能?
下一篇
在Golang中如何使用C语言的功能?
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    116次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    111次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    128次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    120次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    124次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码