加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Java > 正文

需要Solaris和Java连续内存澄清

发布时间:2020-12-15 02:31:58 所属栏目:Java 来源:网络整理
导读:背景: 我们有一个供应商提供的Java应用程序,它有一个有点大的Java堆.没有太多的信息,应用程序对我们来说是一个黑盒子,但我们觉得我们需要自己尝试调整性能并解决问题. 64位SunOS 10机器有16GB内存,唯一运行的非系统应用程序是这个应用程序的JVM. 64位JVM在J
背景:

我们有一个供应商提供的Java应用程序,它有一个有点大的Java堆.没有太多的信息,应用程序对我们来说是一个黑盒子,但我们觉得我们需要自己尝试调整性能并解决问题.

64位SunOS 10机器有16GB内存,唯一运行的非系统应用程序是这个应用程序的JVM. 64位JVM在JBoss中运行,我认为与此讨论无关,最大堆大小为8GB,我认为这是相关的.

最近的问题是我们遇到了各种内存不足错误.发生这些错误时,堆未满,并且错误询问“Out of Swap Space?”.供应商希望我们将交换从2GB增加到4GB,这是在一个16GB的系统上,而且应用程序只有8GB.我们觉得这对性能来说不是一个好主意.

我的问题:

因此,我们发现的一件事是文件缓存耗尽了所有剩余的可用内存以提高性能.通常不是问题,但它显然会破坏记忆.由于Hotspot JVM需要连续的内存空间,我们已经了解到这种内存碎片会导致使用未分段的交换空间.

但是,我不确定我是否理解碎片与连续记忆要求之间的关系.当然,碎片只是指物理公羊的碎片化.使用虚拟内存,完全可以分配一个连续的ram块,而不会被连续的ram块支持.换句话说,非连续的物理内存块将作为连续的虚拟内存块看作正在运行的进程.

所以,我想,那里没有一个句子问题,但是有没有人对这个问题有更多的了解并且可以加入?在64位系统上引用这个连续内存问题的任何链接?

到目前为止我发现了什么:

到目前为止,我发现的“连续内存”问题的每个引用都与32位地址系统中虚拟地址空间的布局有关.当我们运行64位系统(我认为,48位寻址)时,有足够的虚拟地址空间来分配大的连续块.

我一直在互联网上查找这些信息,但迄今为止无法找到我要查找的信息.

更新:

>为了清楚起见,我并没有试图回答为什么我会收到OOM错误,而是试图理解可能碎片化的系统RAM与java所需的连续虚拟内存块之间的关系.
> prstat -Z

ZONEID    NPROC  SWAP   RSS MEMORY      TIME  CPU ZONE  
     0       75 4270M 3855M    24%  92:24:03 0.3% global

> echo“:: memstat”| mdb -k

Page Summary                Pages                MB  %Tot    
------------     ----------------  ----------------  ----  
Kernel                     326177              2548   16%  
ZFS File Data              980558              7660   48%  
Anon                       561287              4385   27%  
Exec and libs               12196                95    1%  
Page cache                  17849               139    1%  
Free (cachelist)             4023                31    0%  
Free (freelist)            156064              1219    8%  

Total                     2058154             16079  
Physical                  2042090             15953

>我之前认为ZFS文件数据是可免费获得的内存,我已经了解到情况并非如此,很可能是导致错误的原因.
> vmstat 5 5

kthr      memory            page            disk          faults      cpu  
r b w   swap  free  re  mf pi po fr de sr vc vc vc --   in   sy   cs us sy id  
0 0 0 2161320 2831768 12 55 0  0  0  0  0  3  4 -0  0 1089 1320 1048  1  1 98  
0 0 0 819720 1505856 0  14  0  0  0  0  0  4  0  0  0 1189  748 1307  1  0 99  
0 0 0 819456 1505648 0   1  0  0  0  0  0  0  0  0  0 1024  729 1108  0  0 99  
0 0 0 819456 1505648 0   1  0  0  0  0  0  0  0  0  0  879  648  899  0  0 99  
0 0 0 819416 1505608 0   1  0  0  0  0  0  0  3  0  0 1000  688 1055  0  0 99

>当应用程序以健康状态运行时,会执行这些命令输出.我们现在正在监视上述所有内容并记录它,以防我们再次看到交换空间错误.
>以下是在JVM增长到8GB然后重新启动之后.这样做的结果是ZFS ARC缩小(达到26%RAM),直到它再次增长.现在看起来怎么样?
> vmstat 5 5

kthr      memory            page            disk          faults      cpu
r b w   swap  free  re  mf pi po fr de sr vc vc -- --   in   sy   cs us sy id
0 0 0 1372568 2749528 11 41 0  0  0  0  0  2  3  0  0  713  418  539  0  0 99
0 0 0 3836576 4648888 140 228 0 0 0  0  0  0  0  0  0 1178 5344 1117  3  2 95
0 0 0 3840448 4653744 16 45 0  0  0  0  0  0  0  0  0 1070 1013  952  1  3 96
0 0 0 3839168 4652720 6 53  0  0  0  0  0  0  0  0  0  564  575  313  0  6 93
0 0 0 3840208 4653752 7 68  0  0  0  0  0  3  0  0  0 1284 1014 1264  1  1 98

> swap -s

总计:4341344k字节分配675384k保留= 5016728k使用,3840880k可用

解决方法

当错误消息表明交换空间可能不够大时,我通常会信任它并显着增加交换大小.

我建议你先做,最高4 GB甚至8 GB,看看会发生什么.扩大掉期对业绩没有任何影响.这是一个普遍的误解.影响性能的是缺少RAM,而不是太大的交换区域.

只有在更改后问题仍然存在时,我才会尝试研究替代曲目,例如内存碎片.

编辑:

从您的memstat,prstat和vmstat输出,很明显您的系统没有虚拟内存.绝对没有必要调查其他异常原因,如内存碎片.你有比免费虚拟内存(~800MB)更多的空闲RAM(~1.5G).这意味着有很多未使用的(尚未)内存预留.再次,只需添加一些交换空间来修复它.由于你有足够的RAM,这不会对性能产生任何影响.

编辑:(第2部分)

现在我们知道您正在使用ZFS,因为您的应用程序可以使用高达8 GB(如果我们考虑非堆内存,甚至更多),您应该减少最大ARC大小以允许这些8 GB立即可用于JVM,而不是依赖于操作系统正在进行的自我调整,目前可能会由于尺寸不足的交换而混淆.有关如何执行此操作的详细信息,请参阅Limiting the ARC cache chapter in the ZFS evil tuning guide.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读