重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章主要讲解了“如何定位内存泄露”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“如何定位内存泄露”吧!
超过10多年行业经验,技术领先,服务至上的经营模式,全靠网络和口碑获得客户,为自己降低成本,也就是为客户降低成本。到目前业务范围包括了:成都网站建设、成都网站设计,成都网站推广,成都网站优化,整体网络托管,微信平台小程序开发,微信开发,重庆APP开发公司,同时也可以让客户的网站和网络营销和我们一样获得订单和生意!
上一节中我们尝试了多种多线程方案,总会有各种各样奇怪的问题。
于是最后决定使用生产-消费者模式去实现。
实现如下:
这里使用 AtomicLong 做了一个简单的计数。
userMapper.handle2(Arrays.asList(user)); 这个方法是同事以前的方法,当然做了很多简化。
就没有修改,入参是一个列表。这里为了兼容,使用 Arrays.asList() 简单封装了一下。
import com.github.houbb.thread.demo.dal.entity.User; import com.github.houbb.thread.demo.dal.mapper.UserMapper; import com.github.houbb.thread.demo.service.UserService; import java.util.Arrays; import java.util.List; import java.util.concurrent.*; import java.util.concurrent.atomic.AtomicLong; /** * 分页查询 * @author binbin.hou * @since 1.0.0 */ public class UserServicePageQueue implements UserService { // 分页大小 private final int pageSize = 10000; private static final int THREAD_NUM = 20; private final Executor executor = Executors.newFixedThreadPool(THREAD_NUM); private final ArrayBlockingQueuequeue = new ArrayBlockingQueue<>(2 * pageSize, true); // 模拟注入 private UserMapper userMapper = new UserMapper(); /** * 计算总数 */ private AtomicLong counter = new AtomicLong(0); // 消费线程任务 public class ConsumerTask implements Runnable { @Override public void run() { while (true) { try { // 会阻塞直到获取到元素 User user = queue.take(); userMapper.handle2(Arrays.asList(user)); long count = counter.incrementAndGet(); } catch (InterruptedException e) { e.printStackTrace(); } } } } // 初始化消费者进程 // 启动五个进程去处理 private void startConsumer() { for(int i = 0; i < THREAD_NUM; i++) { ConsumerTask task = new ConsumerTask(); executor.execute(task); } } /** * 处理所有的用户 */ public void handleAllUser() { // 启动消费者 startConsumer(); // 充值计数器 counter = new AtomicLong(0); // 分页查询 int total = userMapper.count(); int totalPage = total / pageSize; for(int i = 1; i <= totalPage; i++) { // 等待消费者处理已有的信息 awaitQueue(pageSize); System.out.println(UserMapper.currentTime() + " 第 " + i + " 页查询开始"); List userList = userMapper.selectList(i, pageSize); // 直接往队列里面扔 queue.addAll(userList); System.out.println(UserMapper.currentTime() + " 第 " + i + " 页查询全部完成"); } } /** * 等待,直到 queue 的小于等于 limit,才进行生产处理 * * 首先判断队列的大小,可以调整为0的时候,才查询。 * 不过因为查询也比较耗时,所以可以调整为小于 pageSize 的时候就可以准备查询 * 从而保障消费者不会等待太久 * @param limit 限制 */ private void awaitQueue(int limit) { while (true) { // 获取阻塞队列的大小 int size = queue.size(); if(size >= limit) { try { // 根据实际的情况进行调整 Thread.sleep(1000); } catch (InterruptedException e) { e.printStackTrace(); } } else { break; } } } }
当然这个方法在集成环境跑没有任何的问题。
于是就开始直接上生产验证,结果开始很快,然后就可以变慢了。
一看 GC 日志,梅开二度,FULL GC。
可恶,圣斗士竟然会被同一招打败 2 次吗?
一般要发现 full gc,最直观的感受就是程序很慢。
这时候你就需要添加一下 GC 日志打印,看一下是否有 full gc 即可。
这个最坑的地方就在于,性能问题是测试一般无法验证的,除非你进行压测。
压测还要同时满足两个条件:
(1)数据量足够大,或者说 QPS 足够高。持续压
(2)资源足够少,也就是还想马儿跑,还想马儿不吃草。
好巧不巧,我们同时赶上了两点。
那么问题又来了,如何定位为什么 FULL GC 呢?
程序变慢并不是一开始就慢,而是开始很快,然后变慢,接着就是不停的 FULL GC。
这就和自然的想到是内存泄露。
如何定位内存泄露呢?
你可以分成下面几步:
(1)看代码,是否有明显存在内存泄露的地方。然后修改验证。如果无法解决,则找出可能存在问题的地方,执行第二步。
(2)把 FULL GC 时的堆栈信息 dump 下来,分析到底是什么数据过大,然后结合 1 去解决。
接下来,让我们一起看一下这个过程的简化版本记录。
最基本的生产者-消费者模式确认了即便,感觉没啥问题。
于是就要看一下消费者模式中调用其他人的方法问题。
(1)遍历入参列表,执行业务处理。
(2)把当前批次的处理结果写入到文件中。
简化版本如下:
/** * 模拟用户处理 * * @param userList 用户列表 */ public void handle2(ListuserList) { String targetDir = "D:\\data\\"; // 理论让每一个线程只读写属于自己的文件 String fileName = Thread.currentThread().getName()+".txt"; String fullFileName = targetDir + fileName; FileWriter fileWriter = null; BufferedWriter bufferedWriter = null; User userExample; try { fileWriter = new FileWriter(fullFileName); bufferedWriter = new BufferedWriter(fileWriter); StringBuffer stringBuffer = null; for(User user : userList) { stringBuffer = new StringBuffer(); // 业务逻辑 userExample = new User(); userExample.setId(user.getId()); // 如果查询到的结果已存在,则跳过处理 List userCountList = queryUserList(userExample); if(userCountList != null && userCountList.size() > 0) { return; } // 其他处理逻辑 // 记录最后的结果 stringBuffer.append("用户") .append(user.getId()) .append("同步结果完成"); bufferedWriter.newLine(); bufferedWriter.write(stringBuffer.toString()); } // 处理结果写入到文件中 bufferedWriter.newLine(); bufferedWriter.flush(); bufferedWriter.close(); fileWriter.close(); } catch (Exception exception) { exception.printStackTrace(); } finally { try { if (null != bufferedWriter) { bufferedWriter.close(); } if (null != fileWriter) { fileWriter.close(); } } catch (Exception e) { } } }
这种代码怎么说呢,大概就是祖传代码吧,不晓得大家有没有见过,或者写过呢?
我们可以不看文件部分,核心部分实际上只有:
User userExample; for(User user : userList) { // 业务逻辑 userExample = new User(); userExample.setId(user.getId()); // 如果查询到的结果已存在,则跳过处理 ListuserCountList = queryUserList(userExample); if(userCountList != null && userCountList.size() > 0) { return; } // 其他处理逻辑 }
你觉得上面的代码有哪些问题?
什么地方可能存在内存泄露呢?
有应该如何改进呢?
如果你看代码已经确定了疑惑的地方,那么接下来就是去看一下堆栈,验证下自己的猜想。
jvm 堆栈查看的方式很多,我们这里以 jmap 命令为例。
(1)找到 java 进程的 pid
你可以执行 jps 或者 ps ux 等,选择一个你喜欢的。
我们 windows 本地测试了下(实际生产一般是 linux 系统):
D:\Program Files\Java\jdk1.8.0_192\bin>jps 11168 Jps 3440 RemoteMavenServer36 4512 11660 Launcher 11964 UserServicePageQueue
UserServicePageQueue 是我们执行的测试程序,所以 pid 是 11964
(2)执行 jmap 获取堆栈信息
命令:
jmap -histo 11964
效果如下:
D:\Program Files\Java\jdk1.8.0_192\bin>jmap -histo 11964 num #instances #bytes class name ---------------------------------------------- 1: 161031 20851264 [C 2: 157949 3790776 java.lang.String 3: 1709 3699696 [B 4: 3472 3688440 [I 5: 139358 3344592 com.github.houbb.thread.demo.dal.entity.User 6: 139614 2233824 java.lang.Integer 7: 12716 508640 java.io.FileDescriptor 8: 12714 406848 java.io.FileOutputStream 9: 7122 284880 java.lang.ref.Finalizer 10: 12875 206000 java.lang.Object ...
当然下面还有很多,你可以使用 head 命令过滤。
当然,如果服务器不支持这个命令,你可以把堆栈信息输出到文件中:
jmap -histo 11964 >> dump.txt
我们可以很明显发现不合理的地方:
[C 这里指的是 chars,有 161031。
String 是字符串,有 157949。
当然还有 User 对象,有 139358。
我们每一次分页是 1W 个,queue 中最多是 19999 个,这么多对象显然不合理。
代码给人的第一感受,就是和业务逻辑没啥关系的写文件了。
很多小伙伴肯定想到了可以使用 TWR 简化一下代码,不过这里存在两个问题:
(1)最后文件中能记录所有的执行结果吗?
(2)有没有更好的方式呢?
对于问题1,答案是不能。虽然我们为每一个线程创建一个文件,但是实际测试,发现文件会被覆盖。
实际上比起我们自己写文件,更应该使用 log 去记录结果,这样更加优雅。
于是,最后把代码简化如下:
//日志 User userExample; for(User user : userList) { // 业务逻辑 userExample = new User(); userExample.setId(user.getId()); // 如果查询到的结果已存在,则跳过处理 ListuserCountList = queryUserList(userExample); if(userCountList != null && userCountList.size() > 0) { // 日志 return; } // 其他处理逻辑 // 日志记录结果 }
user 对象为什么这里多?
我们看一下核心业务代码:
User userExample; for(User user : userList) { // 业务逻辑 userExample = new User(); userExample.setId(user.getId()); // 如果查询到的结果已存在,则跳过处理 ListuserCountList = queryUserList(userExample); if(userCountList != null && userCountList.size() > 0) { return; } // 其他处理逻辑 }
这里在判断是否存在的时候构建了一个 mybatis 中常用的 User 查询条件,然后判断查询的列表大小。
这里有两个问题:
(1)判断是否存在,最好使用 count,而不是判断列表结果大小。
(2)User userExample 的作用域尽量小一点。
调整如下:
for(User user : userList) { // 业务逻辑 User userExample = new User(); userExample.setId(user.getId()); // 如果查询到的结果已存在,则跳过处理 int count = selectCount(userExample); if(count > 0) { return; } // 其他业务逻辑 }
这里的 System.out.println 实际使用时用 log 替代,这里只是为了演示。
/** * 模拟用户处理 * * @param userList 用户列表 */ public void handle3(ListuserList) { System.out.println("入参:" + userList); for(User user : userList) { // 业务逻辑 User userExample = new User(); userExample.setId(user.getId()); // 如果查询到的结果已存在,则跳过处理 int count = selectCount(userExample); if(count > 0) { System.out.println("如果查询到的结果已存在,则跳过处理"); continue; } // 其他业务逻辑 System.out.println("业务逻辑处理结果"); } }
全部改完之后,重新部署验证,一切顺利。
感谢各位的阅读,以上就是“如何定位内存泄露”的内容了,经过本文的学习后,相信大家对如何定位内存泄露这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!