巧用Event发现问题
本篇文章给大家分享《巧用Event发现问题》,覆盖了数据库的常见基础知识,其实一个语言的全部知识点一篇文章是不可能说完的,但希望通过这些问题,让读者对自己的掌握程度有一定的认识(B 数),从而弥补自己的不足,更好的掌握它。
欢迎关注我的《深入理解MySQL主从原理 32讲 》,如下:

有了前面对Event的了解,我们就可以利用这些Event来完成一些工作了。我曾经在学习了这些常用的Event后,使用C语言写过一个解析Event的工具,我叫它‘infobin’,意思就是从binary log提取信息的意思。据我所知虽然这个工具在少数情况下会出现BUG但是还是有些朋友在用。我这里并不是要推广我的工具,而是要告诉大家这种思路。我是结合工作中遇到的一些问题来完成了这个工具的,主要功能包含如下:
- 分析binary log中是否有长期未提交的事务 ,长期不提交的事务将会引发更多的锁争用。
- 分析binary log中是否有大事务 ,大事务的提交可能会堵塞其它事务的提交。
- 分析binary log中每个表生成了多少DML Event,这样就能知道哪个表的修改量最大。
- 分析binary log中Event的生成速度,这样就能知道哪个时间段生成的Event更多。
下面是这个工具的地址,供大家参考(我已经很久没更新了):
https://github.com/gaopengcarl/infobin
这个工具的帮助信息如下:
[root@gp1 infobin]# ./infobin USAGE ERROR! [Author]: gaopeng [QQ]:22389860 [blog]:http://blog.itpub.net/7728585/ --USAGE:./infobin binlogfile pieces bigtrxsize bigtrxtime [-t] [-force] [binlogfile]:binlog file! [piece]:how many piece will split,is a Highly balanced histogram, find which time generate biggest binlog.(must:piece256(bytes)) [bigtrxtime](sec):larger than this sec trx will view.(must:>0(sec)) [[-t]]:if [-t] no detail is print out,the result will small [[-force]]:force analyze if unkown error check!!
接下来我们具体来看看这几个功能大概是怎么实现的。
一、分析长期未提交的事务
前面我已经多次提到过对于一个手动提交的事务而言有如下特点,我们以‘Insert’语句为列:
- GTID_LOG_EVENT和XID_EVENT是命令‘COMMIT’发起的时间。
- QUERY_EVENT是第一个‘Insert’命令发起的时间。
- MAP_EVENT/WRITE_ROWS_EVENT是每个‘Insert’命令发起的时间。
那实际上我们就可以用(1)减去(2)就能得到第一个‘DML’命令发起到‘COMMIT’命令发起之间所消耗的时间,再使用一个用户输入参数来自定义多久没有提交的事务叫做长期未提交的事务就可以了,我的工具中使用bigtrxtime作为这个输入。我们来用一个例子说明,我们做如下语句:
语句 | 时间 |
---|---|
begin | T1 |
insert into testrr values(20); | 11:25:22 |
insert into testrr values(30); | 11:25:26 |
insert into testrr values(40); | 11:25:28 |
commit; | 11:25:30 |
我们来看看Event的顺序和时间如下:
Event | 时间 |
---|---|
GTID_LOG_EVENT | 11:25:30 |
QUERY_EVENT | 11:25:22 |
MAP_EVENT(第1个insert) | 11:25:22 |
WRITE_ROWS_EVENT(第1个insert) | 11:25:22 |
MAP_EVENT(第2个insert) | 11:25:26 |
WRITE_ROWS_EVENT(第2个insert) | 11:25:26 |
MAP_EVENT(第3个insert) | 11:25:28 |
WRITE_ROWS_EVENT(第3个insert) | 11:25:28 |
XID_EVENT | 11:25:30 |
如果我们使用最后一个XID_EVENT的时间减去QUERY_EVENT的时间,那么这个事务从第一条语句开始到‘COMMIT’的时间就计算出来了。注意一点,实际上‘BEGIN’命令并没有记录到Event中,它只是做了一个标记让事务不会自动进入提交流程,关于‘BEGIN’命令做了什么可以参考我的简书文章如下:
https://www.jianshu.com/p/6de1e8071279
二、分析大事务
这部分实现比较简单,我们只需要扫描每一个事务GTID_LOG_EVENT和XID_EVENT之间的所有Event将它们的总和计算下来,就可以得到每一个事务生成Event的大小(但是为了兼容最好计算QUERY_EVENT和XID_EVENT之间的Event总量)。再使用一个用户输入参数自定义多大的事务叫做大事务就可以了,我的工具中使用bigtrxsize作为这个输入参数。
如果参数binlog_row_image参数设置为‘FULL’,我们可以大概计算一下特定表的每行数据修改生成的日志占用的大小:
- ‘Insert’和‘Delete’:因为只有before_image或者after_image,因此100字节一行数据加上一些额外的开销大约加上10字节也就是110字节一行。如果定位大事务为100M那么大约修改量为100W行数据。
- ‘Update’:因为包含before_image和after_image,因此上面的计算的110字节还需要乘以2。因此如果定位大事务为100M那么大约修改量为50W行数据。
我认为20M作为大事务的定义比较合适,当然这个根据自己的需求进行计算。
三、分析binary log中Event的生成速度
这个实现就很简单了,我们只需要把binary log按照输入参数进行分片,统计结束Event和开始Event的时间差值就能大概算出每个分片生成花费了多久时间,我们工具使用piece作为分片的传入参数。通过这个分析,我们可以大概知道哪一段时间Event生成量更大,也侧面反映了数据库的繁忙程度。
四、分析每个表生成了多少DML Event
这个功能也非常实用,通过这个分析我们可以知道数据库中哪一个表的修改量最大。实现方式主要是通过扫描binary log中的MAP_EVENT和接下来的DML Event,通过table id获取表名,然后将DML Event的大小归入这个表中,做一个链表,最后排序输出就好了。但是前面我们说过table id即便在一个事务中也可能改变,这是我开始没有考虑到的,因此这个工具有一定的问题,但是大部分情况是可以正常运行的。
五、工具展示
下面我就来展示一下我说的这些功能,我做了如下操作:
mysql> flush binary logs; Query OK, 0 rows affected (0.51 sec) mysql> select count(*) from tti; +----------+ | count(*) | +----------+ | 98304 | +----------+ 1 row in set (0.06 sec) mysql> delete from tti; Query OK, 98304 rows affected (2.47 sec) mysql> begin; Query OK, 0 rows affected (0.00 sec) mysql> insert into tti values(1,'gaopeng'); Query OK, 1 row affected (0.00 sec) mysql> select sleep(20); +-----------+ | sleep(20) | +-----------+ | 0 | +-----------+ 1 row in set (20.03 sec) mysql> commit; Query OK, 0 rows affected (0.22 sec) mysql> insert into tpp values(10); Query OK, 1 row affected (0.14 sec)
在示例中我切换了一个binary log,同时做了3个事务:
- 删除了tti表数据一共98304行数据。
- 向tti表插入了一条数据,等待了20多秒提交。
- 向tpp表插入了一条数据。
我们使用工具来分析一下,下面是统计输出:
./infobin mysql-bin.000005 3 1000000 15 -t > log.log more log.log ... -------------Total now-------------- Trx total[counts]:3 Event total[counts]:125 Max trx event size:8207(bytes) Pos:420[0X1A4] Avg binlog size(/sec):9265.844(bytes)[9.049(kb)] Avg binlog size(/min):555950.625(bytes)[542.921(kb)] --Piece view: (1)Time:1561442359-1561442383(24(s)) piece:296507(bytes)[289.558(kb)] (2)Time:1561442383-1561442383(0(s)) piece:296507(bytes)[289.558(kb)] (3)Time:1561442383-1561442455(72(s)) piece:296507(bytes)[289.558(kb)] --Large than 500000(bytes) trx: (1)Trx_size:888703(bytes)[867.874(kb)] trx_begin_p:299[0X12B] trx_end_p:889002[0XD90AA] Total large trx count size(kb):#867.874(kb) --Large than 15(secs) trx: (1)Trx_sec:31(sec) trx_begin_time:[20190625 14:00:08(CST)] trx_end_time:[20190625 14:00:39(CST)] trx_begin_pos:889067 trx_end_pos:889267 query_exe_time:0 --Every Table binlog size(bytes) and times: Note:size unit is bytes ---(1)Current Table:test.tpp:: Insert:binlog size(40(Bytes)) times(1) Update:binlog size(0(Bytes)) times(0) Delete:binlog size(0(Bytes)) times(0) Total:binlog size(40(Bytes)) times(1) ---(2)Current Table:test.tti:: Insert:binlog size(48(Bytes)) times(1) Update:binlog size(0(Bytes)) times(0) Delete:binlog size(888551(Bytes)) times(109) Total:binlog size(888599(Bytes)) times(110) ---Total binlog dml event size:888639(Bytes) times(111)
我们发现我们做的操作都统计出来了:
- 包含一个大事务日志总量大于500K,大小为800K左右,这是我的删除tti表中98304行数据造成的。
--Large than 500000(bytes) trx: (1)Trx_size:888703(bytes)[867.874(kb)] trx_begin_p:299[0X12B] trx_end_p:889002[0XD90AA]
- 包含一个长期未提交的事务,时间为31秒,这是我特意等待20多秒提交引起的。
--Large than 15(secs) trx: (1)Trx_sec:31(sec) trx_begin_time:[20190625 14:00:08(CST)] trx_end_time:[20190625 14:00:39(CST)] trx_begin_pos:889067 trx_end_pos:889267 query_exe_time:0
- 本binary log有两个表的修改记录tti和tpp,其中tti表有‘Delete’操作和‘Insert’操作,tpp表只有‘Insert’操作,并且包含了日志量的大小。
--Every Table binlog size(bytes) and times: Note:size unit is bytes ---(1)Current Table:test.tpp:: Insert:binlog size(40(Bytes)) times(1) Update:binlog size(0(Bytes)) times(0) Delete:binlog size(0(Bytes)) times(0) Total:binlog size(40(Bytes)) times(1) ---(2)Current Table:test.tti:: Insert:binlog size(48(Bytes)) times(1) Update:binlog size(0(Bytes)) times(0) Delete:binlog size(888551(Bytes)) times(109) Total:binlog size(888599(Bytes)) times(110) ---Total binlog dml event size:888639(Bytes) times(111)
好了到这里我想告诉你的就是,学习了Event过后就可以自己通过各种语言去试着解析binary log,也许你还能写出更好的工具实现更多的功能。
当然也可以通过mysqlbinlog 进行解析后,然后通过shell/python去统计,但是这个工具的速度要远远快于这种方式。
今天关于《巧用Event发现问题》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

- 上一篇
- orderBy 排序优化

- 下一篇
- mysql基础知识
-
- 数据库 · MySQL | 2天前 |
- MySQL设置中文界面,超简单教程来了!
- 332浏览 收藏
-
- 数据库 · MySQL | 2天前 | mysql 索引提示
- MySQL进阶必看!FORCE/USE/IGNOREINDEX用法大揭秘
- 182浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- 手把手教你写MySQL存储过程,小白也能轻松上手
- 163浏览 收藏
-
- 数据库 · MySQL | 2天前 | mysql group by
- MySQL分组查询优化:GROUPBY原理+索引优化超全解析
- 324浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- MySQL设置中文语言,轻松拥有中文界面
- 211浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- MySQL建库语句从入门到精通:创建数据库+设置字符集&排序规则(附实例)
- 176浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- 从零开始学MySQL数据库操作,小白轻松变大神!
- 496浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- MySQL插入日期到时间字段,轻松搞定日期格式
- 484浏览 收藏
-
- 数据库 · MySQL | 2天前 | mysql 数据压缩
- MySQL怎么实现高效压缩存储?表压缩+列式存储详细解读
- 272浏览 收藏
-
- 数据库 · MySQL | 2天前 | mysql JOIN优化
- MySQL优化JOIN操作:七大技巧教你提升关联查询速度
- 106浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- MySQL出现中文乱码?超详细解决方案一次性搞定
- 211浏览 收藏
-
- 数据库 · MySQL | 2天前 |
- MySQL主从复制这样配!搞懂这些参数,replication稳了~
- 131浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 茅茅虫AIGC检测
- 茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
- 28次使用
-
- 赛林匹克平台(Challympics)
- 探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
- 51次使用
-
- 笔格AIPPT
- SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
- 59次使用
-
- 稿定PPT
- 告别PPT制作难题!稿定PPT提供海量模板、AI智能生成、在线协作,助您轻松制作专业演示文稿。职场办公、教育学习、企业服务全覆盖,降本增效,释放创意!
- 55次使用
-
- Suno苏诺中文版
- 探索Suno苏诺中文版,一款颠覆传统音乐创作的AI平台。无需专业技能,轻松创作个性化音乐。智能词曲生成、风格迁移、海量音效,释放您的音乐灵感!
- 61次使用
-
- golang MySQL实现对数据库表存储获取操作示例
- 2022-12-22 499浏览
-
- 搞一个自娱自乐的博客(二) 架构搭建
- 2023-02-16 244浏览
-
- B-Tree、B+Tree以及B-link Tree
- 2023-01-19 235浏览
-
- mysql面试题
- 2023-01-17 157浏览
-
- MySQL数据表简单查询
- 2023-01-10 101浏览