这是一篇来源于阿里内部技术论坛的文章,原文在阿里内部获得一致好评。作者已经把这篇文章开放到云栖社区中供外网访问。Hollis对文章的主要内容做了部分删减,主要删减掉了其中只有阿里内部才能使用的工具的介绍,并删减掉部分只有通过阿里内网才能访问到的链接。
前言
平时的工作中经常碰到很多疑难问题的处理,在处理问题的同时,有一些工具起到了相当大的作用,在此书写下来,一是作为笔记,可以让自己后续忘记了可快速翻阅,二是分享,希望看到此文的同学们可以拿出自己日常觉得帮助很大的工具,大家一起进步。
闲话不多说,开搞。
Linux命令类
tail
最常用的tail -f
grep
awk
1 基础命令
2 匹配
3 内建变量
NR:NR表示从awk开始执行后,按照记录分隔符读取的数据次数,默认的记录分隔符为换行符,因此默认的就是读取的数据行数,NR可以理解为Number of Record的缩写。
FNR:在awk处理多个输入文件的时候,在处理完第一个文件后,NR并不会从1开始,而是继续累加,因此就出现了FNR,每当处理一个新文件的时候,FNR就从1开始计数,FNR可以理解为File Number of Record。
NF: NF表示目前的记录被分割的字段的数目,NF可以理解为Number of Field。
find
pgm
批量查询vm-shopbase满足条件的日志
tsar
tsar是咱公司自己的采集工具。很好用, 将历史收集到的数据持久化在磁盘上,所以我们快速来查询历史的系统数据。当然实时的应用情况也能查询的啦。大部分机器上都有安装。
top
top除了看一些基本信息之外,剩下的就是配合来查询vm的各种问题了
获得线程10进制转16进制后jstack去抓看这个线程到底在干啥
其他
排查利器
btrace
首当其冲的要说的是btrace。真是生产环境&预发的排查问题大杀器。 简介什么的就不说了。直接上代码干
1、查看当前谁调用了ArrayList的add方法,同时只打印当前ArrayList的size大于500的线程调用栈
2、监控当前服务方法被调用时返回的值以及请求的参数
注意:
经过观察,1.3.9的release输出不稳定,要多触发几次才能看到正确的结果
正则表达式匹配trace类时范围一定要控制,否则极有可能出现跑满CPU导致应用卡死的情况
由于是字节码注入的原理,想要应用恢复到一般的情况,需要重启应用。
Greys
说几个挺棒的功能(部分功能和btrace重合):
: 输出当前类的详情,包括源码位置和classloader结构
: 相当喜欢这个功能! 很早前可以早JProfiler看到这个功能。打印出当前方法调用的耗时情况,细分到每个方法。
javOSize
就说一个功能
:通过修改了字节码,改变了类的内容,即时生效。 所以能做到快速的在某个地方打个日志看看输出,缺点是对代码的侵入性太大。但是如果自己清楚自己在干嘛,的确是不错的玩意儿。
其他功能Greys和btrace都能很轻易做的到,不说了。
JProfiler
之前判断许多问题要通过JProfiler,但是现在Greys和btrace基本都能搞定了。再加上出问题的大多数都是生产环境(网络隔离),所以基本不怎么使用了,但是还是要标记一下。
官网请移步https:///products/jprofiler/overview.html
大杀器
eclipseMAT
可作为eclipse的插件,也可作为单独的程序打开。
详情请移步http:///javase/7/docs/technotes/tools/windows/jdb.html
CHLSDB
CHLSDB感觉很多情况下能够正常的看到更好玩的东西,不详细叙述了。 查询资料听说jstack和jmap等工具就是基于它的。
更详细的可见R大此贴
http://rednaxelafx.iteye.com/blog/1847971
plugin of intellij idea
key promoter
快捷键一次你记不住,多来几次你总能记住了吧?
maven helper
分析maven依赖的好帮手。
VM options
1、你的类到底是从哪个文件加载进来的?
2、应用挂了输出dump文件
jar包冲突
把这个单独写个大标题不过分吧?每个人或多或少都处理过这种烦人的case。我特么下边这么多方案不信就搞不定你?
打出所有依赖
只打出指定groupId和artifactId的依赖关系
vm启动脚本加入。在tomcat启动脚本中可见加载类的详细信息
vm启动脚本加入。在tomcat启动脚本中可见加载类的详细信息
greys的sc命令也能清晰的看到当前类是从哪里加载过来的
通过以下url可以获知当前类是从哪里加载的
curl http://localhost:8006/classloader/locate?class=org.apache.xerces.xs.XSObjec
其他
dmesg
如果发现了自己的java进程悄无声息的消失了,几乎没有留下任何线索,那么dmesg一发,有很大的可能性有你想要的。
去找关键字oom_killer。找到的结果类似如下:
以上表明,对应的java进程被系统的OOM Killer给干掉了,得分为854.
解释一下OOM killer(Out-Of-Memory killer),该机制会监控机器的内存资源消耗。当机器内存耗尽前,该机制会扫描所有的进程(按照一定规则计算,内存占用,时间等),挑选出得分最高的进程,然后杀死,从而保护机器。
dmesg日志时间转换公式:
log实际时间=格林威治1970-01-01+(当前时间秒数-系统启动至今的秒数+dmesg打印的log时间)秒数:
剩下的,就是看看为什么内存这么大,触发了OOM-Killer了。
新技能get
RateLimiter
想要精细的控制QPS? 比如这样一个场景,你调用某个接口,对方明确需要你限制你的QPS在400之内你怎么控制?这样一个时间段RateLimiter就有了用武之地。详情可移步http://ifeve.com/guava-ratelimite
-END-
看完本文有收获?请转发分享给更多人
关注「java程序媛之家」,提升Java技能