我们穿过山和大海,也见过人山人海。
我们见过各类故障,也排过千雷万险。
这一次,不如我们一起,开启稳定性的探索之旅。
让无法解决的问题少一点点,让世界的确定性多一点点。
无论是前端业务的开发者,还是后端架构的开发者,都会遇到业务稳定性的难题。但稳定性的话题涉及之广、之深,很难通过一两篇文章道清原委。因此,我们集结了多位阿里技术工程师,他们来自性能压测、故障演练、JVM、应用容器、服务框架、流量调度、监控、诊断等不同的技术领域,以更结构化的方式来打造稳定性领域的知识库,该知识库的目录将分为:
但我们也深知,仅凭阿里自身的业务场景和技术积累,很难满足各行业不同业务场景下对稳定性知识和经验获取的需求,因此,我们将以开源的方式进行共建,欢迎您将自己或所在企业在稳定性方面的实践分享给更多的人,让无法解决的问题少一点,让世界的确定性多一点:
以下是来自 『StabilityGuide』 的第一篇文章: 《系统稳定性——OutOfMemoryError 常见原因及解决方法》 。
当 JVM 内存严重不足时,就会抛出 java.lang.OutOfMemoryError 错误。本文总结了常见的 OOM 原因及其解决方法,如下图所示。如有遗漏或错误,欢迎补充指正。
如果对 JVM 内存模型和垃圾回收机制不熟悉,推荐阅读 《咱们从头到尾说一次 Java 垃圾回收》 。
当堆内存(Heap Space)没有足够空间存放新创建的对象时,就会抛出 java.lang.OutOfMemoryError: Java heap space 错误(根据实际生产经验,可以对程序日志中的 OutOfMemoryError 配置关键字告警,一经发现,立即处理)。
Java heap space 错误产生的常见原因可以分为以下几类:
针对大部分情况,通常只需要通过 -Xmx 参数调高 JVM 堆内存空间即可。如果仍然没有解决,可以参考以下情况做进一步处理:
当 Java 进程花费 98% 以上的时间执行 GC,但只恢复了不到 2% 的内存,且该动作连续重复了 5 次,就会抛出 java.lang.OutOfMemoryError:GC overhead limit exceeded 错误。简单地说,就是应用程序已经基本耗尽了所有可用内存, GC 也无法回收。
此类问题的原因与解决方案跟 Java heap space 非常类似,可以参考上文。
该错误表示永久代(Permanent Generation)已用满,通常是因为加载的 class 数目太多或体积太大。
永久代存储对象主要包括以下几类:
PermGen 的使用量与加载到内存的 class 的数量/大小正相关。
根据 Permgen space 报错的时机,可以采用不同的解决方案,如下所示:
如果上述方法无法解决,可以通过 jmap 命令 dump 内存对象 jmap -dump:format=b,file=dump.hprof ,然后利用 Eclipse MAT 功能逐一分析开销最大的 classloader 和重复 class。
JDK 1.8 使用 Metaspace 替换了永久代(Permanent Generation),该错误表示 Metaspace 已被用满,通常是因为加载的 class 数目太多或体积太大。
此类问题的原因与解决方法跟 Permgen space 非常类似,可以参考上文。需要特别注意的是调整 Metaspace 空间大小的启动参数为 -XX:MaxMetaspaceSize。
每个 Java 线程都需要占用一定的内存空间,当 JVM 向底层操作系统请求创建一个新的 native 线程时,如果没有足够的资源分配就会报此类错误。
原因分析
JVM 向 OS 请求创建 native 线程失败,就会抛出 Unable to create new native thread,常见的原因包括以下几类:
该问题发生的常见过程主要包括以下几步:
解决方案
ulimit -a .... 省略部分内容 ..... max user processes (-u) 16384 复制代码
该错误表示所有可用的虚拟内存已被耗尽。虚拟内存(Virtual Memory)由物理内存(Physical Memory)和交换空间(Swap Space)两部分组成。当运行时程序请求的虚拟内存溢出时就会报 Out of swap space? 错误。
原因分析
该错误出现的常见原因包括以下几类:
解决方案
根据错误原因可以采取如下解决方案:
有一种内核作业(Kernel Job)名为 Out of Memory Killer,它会在可用内存极低的情况下“杀死”(kill)某些进程。OOM Killer 会对所有进程进行打分,然后将评分较低的进程“杀死”,具体的评分规则可以参考 Surviving the Linux OOM Killer,详情点击这里。
不同于其他的 OOM 错误,Kill process or sacrifice child 错误不是由 JVM 层面触发的,而是由操作系统层面触发的。
原因分析
默认情况下,Linux 内核允许进程申请的内存总量大于系统可用内存,通过这种“错峰复用”的方式可以更有效的利用系统资源。
然而,这种方式也会无可避免地带来一定的“超卖”风险。例如某些进程持续占用系统内存,然后导致其他进程没有可用内存。此时,系统将自动激活 OOM Killer,寻找评分低的进程,并将其“杀死”,释放内存资源。
解决方案
JVM 限制了数组的最大长度,该错误表示程序请求创建的数组超过最大长度限制。
JVM 在为数组分配内存前,会检查要分配的数据结构在系统中是否可寻址,通常为 Integer.MAX_VALUE - 2。
此类问题比较罕见,通常需要检查代码,确认业务是否需要创建如此大的数组,是否可以拆分为多个块,分批执行。
Java 允许应用程序通过 Direct ByteBuffer 直接访问堆外内存,许多高性能程序通过 Direct ByteBuffer 结合内存映射文件(Memory Mapped File)实现高速 IO。
原因分析
Direct ByteBuffer 的默认大小为 64 MB,一旦使用超出限制,就会抛出 Direct buffer memory 错误。
解决方案