数据库异常智能分析与诊断

如果无法正常显示,请先停止浏览器的去广告插件。
分享至:
1. 数据库异常智能分析与诊断 基础技术部/蔡金龙 2021年12月 1
2. • 背景介绍 • 解决思路 • 技术方案 • 成果展示 2
3. 背景介绍 实例高速增长带来的稳定性问题 运维效率 1. 分析定位难度高,以人为主,工具为辅 2. 工具之间联动少,单点之间来回切换 3. 处理过程不透明,协同沟通成本高 业务稳定性 1. 故障处理周期长,小问题容易变成大故障 2. 故障出现频次高,新业务故障持续不断发生 团队口碑 1. 用户投诉多,产品满意度评分低 规模增长与运维能力发展之间的不平衡问题凸显 3
4. 背景介绍 理想很丰满,现实很骨感 异常预防(MTBF) 分解+逻辑转换 异常处理(MTTR) 异常复盘/改进(MTBF) • 每个环节具备10%~20%的能力,保障能力短板明显 • 自助化和自动化能力不足,整个链条没有打通,未形成合力 4
5. • 背景介绍 • 解决思路 • 技术方案 • 成果展示 5
6. 解决思路 既解决短期矛盾,也立足长远发展(Think Big Picture, Think Long Term) 从历史故障复盘来看,有80%的故障80%的时间花在分析和定位上。因此,短期解决异常分析和定位效率ROI最高。长期来 看,只有完善能力版图,才能持续不断的提升整个数据库的稳定性保障能力 6
7. 解决思路 夯实基础能力,赋能上层业务,实现数据库自治 欲伐大木 ,岂能骤折。必以斧斤伐之,渐至微细,然后能折。--雄才大略的清太祖努尔哈赤“伐树理论” 7
8. 解决思路 建立科学的评估体系,持续的跟踪产品质量 美国著名管理学者卡普兰说过“没有度量就没有管理” 运营 指标拆解 核心指 标 产品 自治 8
9. • 背景介绍 • 解决思路 • 技术方案 • 成果展示 9
10. 技术方案 技术架构的顶层设计 设计的7大原则 安全性:对业务影响极小,几乎可以忽略不计 丰富性:覆盖历史故障场景所涉及的异常指标 实时性:秒级以内的延迟,实时分析和汇总 完备性:数据上报,不要错报,不要漏报 易用性:面向小白而不是专家 可闭环:分析准确,决策正确,执行明确 低成本:极致的数据压缩 10
11. 技术方案 采集层:慢查询采集设计 慢查询:对于日志采集agent来说,准确率、延时、资源消耗三者不可兼得 11
12. 技术方案 采集层:全量SQL采集演进策略、技术方案和技术实现 演进策略 方案调研 技术实现 12
13. 技术方案 采集层:摸底测试与丢失率优化 13
14. 技术方案 采集层:CPU利用率分析与优化 用pprof工具对进程CPU占用进行了画像分析,从左边的火焰图归纳出CPU消耗的大头 14
15. 技术方案 采集层:CPU利用率分析与优化 脱敏优化:脱敏下沉,功能解耦 延迟脱敏的结果 rds-agent QPS 丢失率 CPU利用率 改进前 50833.50 63.95% 601.39% 改进后 51246.47 31.95% 259.59% 15
16. 技术方案 采集层:CPU利用率分析与优化 1. 缩短链路: 分流、worker、解析SQL合并成一个goroutine解析器 2. 主动切换:解析器每5ms从网络协议包的队列中取一次 链路优化的结果 效果 QPS 丢失率 CPU利用率 改进前 51246.47 31.95% 259.59% 改进后 51229.54 0% 206.87% 16
17. 技术方案 采集层:CPU利用率分析与优化 GC优化:内存管理池化 rds-agent QPS 丢失率 CPU利用率 改进前 51229.54 0% 206.87% 改进后 51275.11 0% 153.32% 池化的结果 17
18. 技术方案 采集层:CPU利用率分析与优化 协议优化:过滤无用的空包 过滤的结果 18
19. 技术方案 采集层:CPU利用率分析与优化 优化前后数据对比 19
20. 技术方案 计算存储:大数据通道的建设与优化 具备能力:支持大于10万实例的数据采集能力 设计原则 1. 2. 3. 4. 5. 全内存计算:尽量确保所有的计算都在单线程内\单进 程内做纯内存的操作,追求性能跟吞吐量的极致 最小化对MySQL实例的影响:尽量计算后置,不在 Agent上做复杂计算,确保不对RDS实例生产较大影 响 上报原始数据:MySQL实例上报的数据尽量维持原始 数据状态、不做或者尽量少做数据加工 数据压缩:由于上报量巨大,需要保障上报的数据进 行极致的压缩 内存消耗可控:通过理论和实际压测保障几乎不可能 会发生内存溢出 20
21. 技术方案 计算存储:分钟级别的数据聚合 Mafka Consumer线程对相同模板SQL的消息按分钟粒度进行聚合计算 21
22. 技术方案 计算存储:过期数据的补偿机制 22
23. 技术方案 计算存储:避免跨机器的开销,使性能跟吞吐量达到极限 23
24. 技术方案 计算存储:日均千亿级SQL的极致压缩 遵循层层减流原则,使用消息压缩、预聚合、字典化、分钟级聚合的手段,保证流量在经过每个组件时进行递减,最终达到 节省带宽减少存储量的目的 24
25. 技术方案 能力评估指标体系 25
26. 技术方案 基于数据驱动的异常分析和根因定位的顶层设计 参考: https://mp.weixin.qq.com/s/QMbsV1609NVx60zI1CKffw 26
27. 技术方案 主从延迟规则展示 顺序 分析决策:规则的提炼 300+异常告警复盘, 深入的内核原理分析 回顾 提炼 复盘 总结 分析 规则生成 规则名称 触发条件 1 slave_checkpoint_period太大 slave_checkpoint_period >= 延迟告警阀值 * 50% 2 系统时钟偏移 |从库当前时间 - 标准时间| >= 延迟告警阈值 * 50% (|XX| 表示取绝对值) 3 执行MASTER_DELAY SQL_Delay数值 >= 延迟告警阈值 * 50% 4 主从切换 检查高可用系统是否存在主从切换事件 5 库迁移操 检查迁移服务是否存在库迁移事件 6 主库大事务 (主库事务执行 > 20s || 主库事务影响行数 > 100000) && 从库复制线程出现该事务 7 MDL锁阻塞 从库复制线程state出现waiting for XXX lock 9 主库写流量突增 从库写QPS突增 || 从库Innodb_rows_XXX突增 || 从库Innodb日志写入量突增 10 未启用并行复制 从库slave_parallel_workers == 0 11 从库读流量突增 读QPS突增 && cpu load突增 && IO利用率突增 && 本机慢查突增 12 从库出现大查询 读QPS不突增 && IO利用率突增 && innodb_rows_read突增 && SQL执行 时长>20s 13 实例重启 从库Uptime < 60s 14 IO/SQL线程重启 从库MySQL运行日志中抓取特征文本 15 硬件故障 硬件检查平台进行检查 27
28. 技术方案 以铜为镜,可以正衣冠;以史为镜,可以知兴替;以人为镜,可以明得失 28
29. 技术方案 检验是改进的基础,持续验证,持续改进 29
30. • 背景介绍 • 解决思路 • 技术方案 • 成果展示 30
31. 成果展示 分析决策:指标评估(基于异常告警) 70% 99% 80% P0覆盖率 帮助率 召回率 80% 准确率 31
32. 成果展示 目标回顾与用户反馈 用户问卷调查 32
33. 成果展示 客户案例 会话触 发告警 分析+拉群 根因定位 33
34. 成果展示 客户案例 延迟触 发告警 分析+ 拉群 根因定位 34

trang chủ - Wiki
Copyright © 2011-2024 iteam. Current version is 2.137.1. UTC+08:00, 2024-11-15 19:58
浙ICP备14020137号-1 $bản đồ khách truy cập$