Shell 解决Redis Slow Log去重问题

建站服务器

老东家监测Redis的慢查询日志,采用Crontab 每隔一段时间对慢查询日志采样,然后追加写入一个文本文件。

所以文本文件中有很多重复的慢查询日志

如何对整段重复的慢查询日志去重呢?

采用Shell 命令的方式最简单和直接。

 awk '/^1\\\\)/{print s;s=""};{ s=(s" "$0)}; END{print s } ' b.txt  | sort | uniq | sed 's/        /\\\\n        /g'  | awk '/^ 1\\\\) \\\\(integer\\\\)/{rc =rc 1;rowdata=rc") \\\\t" $1" "$2" "$3"\\\\n\\\\t"$4" "$5" "$6" "$7"\\\\n\\\\t"$8" "$9" "$10;print rowdata};/^  /{print "\\\\t"$0} END{print "不重复日志总数:" rc}'

核心就是把整段的redis日志先合并为一行,去重之后,在还原格式。

下面是用于测试的附件

redisSlowLog.txt

附王工对这个问题的需求描述和说明。

https://blog.csdn.net/wzy0623/article/details/83652539?tdsourcetag=s_pcqq_aiomsg

更多关于云服务器域名注册虚拟主机的问题,请访问西部数码官网:www.west.cn

赞(0)
声明:本网站发布的内容(图片、视频和文字)以原创、转载和分享网络内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-62778877-8306;邮箱:fanjiao@west.cn。本站原创内容未经允许不得转载,或转载时需注明出处:西部数码知识库 » Shell 解决Redis Slow Log去重问题

登录

找回密码

注册