服务器之家:专注于服务器技术及软件下载分享
分类导航

云服务器|WEB服务器|FTP服务器|邮件服务器|虚拟主机|服务器安全|DNS服务器|服务器知识|Nginx|IIS|Tomcat|

服务器之家 - 服务器技术 - Tomcat - Tomcat进程占用CPU过高的解决方法

Tomcat进程占用CPU过高的解决方法

2021-09-27 13:55JavaEdge. Tomcat

本文主要介绍了Tomcat进程占用CPU过高的解决方法,文中通过示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

cpu经常会成为系统性能的瓶颈,可能:

  • 内存泄露导致频繁gc,进而引起cpu使用率过高
  • 代码bug创建了大量的线程,导致cpu频繁上下文切换

通常所说的cpu使用率过高,隐含着一个用来比较高与低的基准值,比如

  • jvm在峰值负载下的平均cpu利用率40%
  • cpu使用率飙到80%就可认为不正常

jvm进程包含多个java线程:

  • 一些在等待工作
  • 另一些则正在执行任务

最重要的是找到哪些线程在消耗cpu,通过线程栈定位到问题代码
如果没有找到个别线程的cpu使用率特别高,考虑是否线程上下文切换导致了cpu使用率过高。

案例

程序模拟cpu使用率过高 - 在线程池中创建4096个线程

在linux环境下启动程序:

?
1
java -xss256k -jar demo-0.0.1-snapshot.jar

线程栈大小指定为256kb。对于测试程序来说,操作系统默认值8192kb过大,因为需要创建4096个线程。

使用top命令,我们看到java进程的cpu使用率达到了961.6%,注意到进程id是55790。

Tomcat进程占用CPU过高的解决方法

用更精细化的top命令查看这个java进程中各线程使用cpu的情况:

?
1
#top -h -p 55790

Tomcat进程占用CPU过高的解决方法

可见,有个叫“scheduling-1”的线程占用了较多的cpu,达到了42.5%。因此下一步我们要找出这个线程在做什么事情。

为了找出线程在做什么,用jstack生成线程快照。
jstack输出较大,一般将其写入文件:

?
1
jstack 55790 > 55790.log

打开55790.log,定位到第4步中找到的名为 scheduling-1 的线程,其线程栈:

Tomcat进程占用CPU过高的解决方法

看到abstractexecutorservice#submit这个函数调用,说明它是spring boot启动的周期性任务线程,向线程池中提交任务,该线程消耗了大量cpu。

上下文切换开销?

经历上述过程,往往已经可以定位到大量消耗cpu的线程及bug代码,比如死循环。但对于该案例:java进程占用的cpu是961.6%, 而“scheduling-1”线程只占用了42.5%的cpu,那其它cpu被谁占用了?

第4步用top -h -p pid命令看到的线程列表中还有许多名为“pool-1-thread-x”的线程,它们单个的cpu使用率不高,但是似乎数量比较多。你可能已经猜到,这些就是线程池中干活的线程。那剩下的cpu是不是被这些线程消耗了呢?

还需要看jstack的输出结果,主要是看这些线程池中的线程是不是真的在干活,还是在“休息”呢?

Tomcat进程占用CPU过高的解决方法

发现这些“pool-1-thread-x”线程基本都处waiting状态。

Tomcat进程占用CPU过高的解决方法

  • blocking指的是一个线程因为等待临界区的锁(lock或者synchronized关键字)而被阻塞的状态,请你注意的是处于这个状态的线程还没有拿到锁
  • waiting指的是一个线程拿到了锁,但需等待其他线程执行某些操作。比如调用了object.wait、thread.join或locksupport.park方法时,进入waiting状态。前提是这个线程已经拿到锁了,并且在进入waiting状态前,os层面会自动释放锁,当等待条件满足,外部调用了object.notify或者locksupport.unpark方法,线程会重新竞争锁,成功获得锁后才能进入到runnable状态继续执行。

回到我们的“pool-1-thread-x”线程,这些线程都处在“waiting”状态,从线程栈我们看到,这些线程“等待”在gettask方法调用上,线程尝试从线程池的队列中取任务,但是队列为空,所以通过locksupport.park调用进到了“waiting”状态。那“pool-1-thread-x”线程有多少个呢?通过下面这个命令来统计一下,结果是4096,正好跟线程池中的线程数相等。

?
1
grep -o 'pool-2-thread' 55790.log | wc -l

Tomcat进程占用CPU过高的解决方法

剩下cpu到底被谁消耗了?
应该怀疑cpu的上下文切换开销了,因为我们看到java进程中的线程数比较多。

下面通过vmstat命令来查看一下操作系统层面的线程上下文切换活动:

Tomcat进程占用CPU过高的解决方法

cs那一栏表示线程上下文切换次数,in表示cpu中断次数,我们发现这两个数字非常高,基本证实了我们的猜测,线程上下文切切换消耗了大量cpu。
那具体是哪个进程导致的呢?

停止spring boot程序,再次运行vmstat命令,会看到in和cs都大幅下降,这就证实引起线程上下文切换开销的java进程正是55790。

Tomcat进程占用CPU过高的解决方法

总结

遇到cpu过高,首先定位哪个进程导致的,之后可以通过top -h -p pid命令定位到具体的线程。
其次还要通jstack查看线程的状态,看看线程的个数或者线程的状态,如果线程数过多,可以怀疑是线程上下文切换的开销,我们可以通过vmstat和pidstat这两个工具进行确认。

到此这篇关于tomcat进程占用cpu过高的解决方法的文章就介绍到这了,更多相关tomcat进程占用cpu过高内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!

原文链接:https://blog.csdn.net/qq_33589510/article/details/119304427

延伸 · 阅读

精彩推荐