此文重新发送的主要原因是,经过MONGODB 中文社区内容联席主席的指导下发现部分问题,进行修改,重新发送,修改问题的位置,已经标记成粗体。
MONGODB 实例的内存使用率是一个非常重要的指标,内存使用率过高会导致MONGODB 实例的内存溢出,本文主要通过查看MONGODB的实例内存的使用率得方法,使MONGODB的使用者尽快发现内存方面出现的问题,提早进行相关的应对。
在MONGODB启动后,我们都知道不光加载了二进制中的文件到内存中,同时负责内存的分配和释放的工作,如各个客户端连接和请求,默认的情况下MONGODB 使用的内存分配的方法是通过tcmalloc来进行分配,内存主要被wiredTiger 数据库引擎以及客户端连接请求使用。
MOGNODB 如何使用内存,如何判断数据库内存在正常的状态范围,是我们需要掌握的。
mongodb 默认设置内存的方式是 (实际的内存减 – 1GB)/ 2 ,mongodb在自己的数据引擎wiredTiger 中使用内存的情况下,同时还要使用linux 文件系统的内存。
所以在大部分情况下,可以让mongodb来自我进行内存的设置选择
通过db.serverStatus().mem 我们可以看到几个值
resident : 这个值是mongodb 本身使用的内存
virtual: 这个值是mongodb 使用的虚拟内存的大小, 这里包含了linux 系统中mongodb 程序使用的 SWAP (如果开启了 ),以及使用的 linux file system 内存(包含分配和并未使用的)
问题是为什么mongodb wiredTiger 不和 ORACLE , MYSQL innodb 将内存设置为整体的内存的 60% -80%, 而是50% 不到.
主要的一个原因是,MONGODB 的数据是压缩应存储到磁盘上的,所以数据需要缓冲到LINUX 的系统缓冲CACHE 中,加速文件的解压和获取。
所以将wiredTiger 的 cacheSize 设置的很大,将其和ORACLE 或 MYSQL的设置的方式类比,那么一定不是一个好的主意,可能会降低系统的性能。
除此之外, mongodb 在除了以上内存的使用以外,还有一些内存的使用
1 在数据库操作commit 的操作时,数据并不是立即刷到磁盘中,而是有对应的缓冲来在脏页刷新到磁盘前,进行数据的缓冲
2 mongodb 是一个支持MVCC 的多版本控制的数据库,所以在操作时,数据行的多个版本是要存储在内存中的
3 客户的连接,以及聚合操作等内存的消耗
那么在MONGODB 持续的使用中,如何判断内存是否缺少是一个重要的事情
这里通过db.serverStatus().wiredTiger.cache 命令捕获下面的一些数据,可以来判断内存的使用情况。
1 wiredTiger.cache.bytes.currently in the cache
这里的数据一般设置到 wiredTiger.cacheSize的值的 80%,wiredTiger 会尽量将使用率达到wiredTiger.cacheSize 的80%, bytes dirty in the cache cumulative与wiredTiger.cache.bytes.currently in the cache 都会在这里面包含。
2 wiredTiger.cache.tracked dirty bytes in the cache
这个值是脏数据驻留在wiredTiger cacheSize 里面的脏数据大小,如果这个值对比wiredTiger cacheSize 的设置的内存值 超过 5%的容量,同时通过工具 mongostat持续观察其中的指标dirty如果此时你的dirty持续在20%,会得出两个可能
1 你的磁盘系统不能满足当前的业务在MONGODB中的使用
2 你的内存有必要进行添加了
3 wiredTiger.cache.pages read into cache
这个值是一个动态值,需要不断的判断一个时间间隔中的这个值的变动,例如每秒,这有助于判断当前数据库的页面的读取到内存的状态是如何,波动是怎样,从一个数据不断的写入的状态来判断内存是否过小。
如 这一秒的值减去上一秒的值 ,就是这一秒的数据的读取量。
同时还可以针对读写事务的 available 进行监控,如果此时 available的数量不足或过少,也可以在针对内存的问题进行确认,内存的缺少也会引擎available 不足的情况。
db.serverStatus().wiredTiger.cache[‘maximum bytes configured’]
db.serverStatus().wiredTiger.cache[‘bytes currently in the cache’]
db.serverStatus().wiredTiger.cache[‘tracked dirty bytes in the cache’]
db.serverStatus().wiredTiger.cache[‘pages written from cache’]
db.serverStatus().wiredTiger.cache[‘pages read into cache’]
以上的5个值可以计算是否缺少内存 (以上建立在你没有设置cacheSize 的逻辑上进行工作)
通过 maximum bytes configured 来获知当前wiredTiger 设置的cacheSize 的大大小, 根据MONGODB 的wiredTiger 分配cacheSize的原则。
1计算总体的内存(内存 – 1)/2 = 3. 3G 目前整体内存在 7.6G
2 3.3G 的内存在 bytes currently in the cache 可以趋近与3.3G ,一般控制在整体cacheSize 的80%及以下。 3.3G * 0.8 = 2.6G
3 tracked dirty bytes in the cache 的值应该在 cacheSize 的 5%以内,这个值在165MB 左右
4 同时比较pages written from cache 和 pages read into cache 两个参数,通过间隔获取这两个数据库,来分析每个时间段流入到mongodb的内存的数据和刷出的数据,可以做一个比值,通过查看工作繁忙期间的比值来判断是否有数据刚刚写入到内存后,就被刷出的可能,来判断是否缺少内存。
除此以外一般我们评判一个数据库中的内存是否正常还有一个可以参考的值就是 buffer hit ratio ,缓冲命中率。
这里通过定时获取下面两个参数的增量,然后进行计算
db.serverStatus().wiredTiger.cache[‘pages requested from the cache’]
db.serverStatus().wiredTiger.cache[‘pages read into cache’]
我们以 2秒为一个取数点,将 page requested from the cache 的值减去上一个 2秒的值,作为一个增量,通过针对 page read into cache 也是一样的处理方式。然后将第一个值 / 第二个值 * 100 = buffer cache hit ratio
来查看当前数据在cache 中的命中率。
除此以外,MONGODB的内存使用还与我们的额实例的连接数有关,如果连接数很大的情况下,会消耗一部分的内存,主要的原因
1 每个客户连接MONGODB 的线程会消耗不超过1MB的线程栈,通常情况下在几十到上百KB
2 TCP连接到内耗层面有读写的缓冲区,连接越多使用的连接缓存越大,占用的资源越多
3 在连接的使用中,在连接释放后,释放后的的内存并不会马上释放给mongodb 而是交还给tcmalloc, 而系统并未回收到相关内存
我们通过db.serverStatus().tcmalloc 可以分析当前有多少内存作为CACHE 在tcmalloc 中存在,其中包括 pageheap_free_bytes + total_free_byte 为当前可以进行在分配的内存。
4 版本较低的MONGODB 在处理文件打开等情况中会产生文件句柄,产生文件句柄后并未及时回收释放给OS系统,导致元数据问题占用部分内存,无法回收。这里建议将MONGODB 升级到 4.2 及以上版本。同时基于版本的问题,之前的复制集合之间是通过串行来进行导致从库在创建索引时会消耗更多的内存用于数据的操作和回放,MOGNODB 4.2 后改用并行的方式提高了回放的效率。
5 执行计划消耗内存的问题,对比上面的问题这个内存的消耗并不是很大,通过系统命令 db.serverStatus().metrics.query.planCacheTotalSizeEstimateByte来查看相关的内存使用情况。
实际上MONGODB 使用中注意连接数和连接的使用情况,如聚合或者全表扫描的场景尽量避免,争取更短小的事务在MONGODB 中运行,提高数据库的性能和利用的效率。
服务器托管,北京服务器托管,服务器租用 http://www.fwqtg.net
机房租用,北京机房租用,IDC机房托管, http://www.fwqtg.net
相关推荐: 落地包体积监控,用Kotlin写一个APK差异分析CLI
引言 当谈到包体积优化时,网上不乏优秀的方案与文章,如 混淆、资源、ReDex、R8、SO 优化等等。 但聊到 包体积监控 时,总是感觉会缺乏落地性,或者总是会下意识认为这可能比较麻烦,需要其他部门连同配合。通常对于有APM基础的团队而言,这倒不算什么,但往往…