一直運行的docker容器顯示內存已經(jīng)耗盡,并且容器內存耗盡也沒(méi)出現重啟情況,通過(guò)后臺查看發(fā)現進(jìn)程沒(méi)有占用多少內存。內存的監控使用的是cadvisor,計算方式也是使用cadvisor的頁(yè)面計算方式,所以決定對docker的內存計算做下研究。
docker version:
Client: Version: 1.12.6 API version: 1.24 Go version: go1.6.4 Git commit: 78d1802 Built: Tue Jan 10 20:20:01 2017 OS/Arch: linux/amd64 Server: Version: 1.12.6 API version: 1.24 Go version: go1.6.4 Git commit: 78d1802 Built: Tue Jan 10 20:20:01 2017 OS/Arch: linux/amd64
kubernetes version:
Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.2+coreos.0", GitCommit:"4c0769e81ab01f47eec6f34d7f1bb80873ae5c2b", GitTreeState:"clean", BuildDate:"2017-10-25T16:24:46Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"} Server Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.2+coreos.0", GitCommit:"4c0769e81ab01f47eec6f34d7f1bb80873ae5c2b", GitTreeState:"clean", BuildDate:"2017-10-25T16:24:46Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}
[docker@k8s busybox]$ cat busybox.yaml
apiVersion: v1 kind: Pod metadata: name: busybox namespace: default spec: containers: - image: registry.dcos:8021/public/busybox:latest command: - sleep - "3600" imagePullPolicy: IfNotPresent name: busybox resources: limits: cpu: "2" memory: 2Gi requests: cpu: 100m memory: 64Mi restartPolicy: Always
[docker@k8s busybox]$ kubectl create -f busybox.yaml
pod "busybox" created
-rw-r--r-- 1 root root 0 May 31 03:18 cgroup.clone_children --w--w--w- 1 root root 0 May 31 03:18 cgroup.event_control -rw-r--r-- 1 root root 0 May 31 03:18 cgroup.procs -rw-r--r-- 1 root root 0 May 31 03:18 memory.failcnt --w------- 1 root root 0 May 31 03:18 memory.force_empty -rw-r--r-- 1 root root 0 May 31 03:18 memory.kmem.failcnt -rw-r--r-- 1 root root 0 May 31 03:18 memory.kmem.limit_in_bytes -rw-r--r-- 1 root root 0 May 31 03:18 memory.kmem.max_usage_in_bytes -r--r--r-- 1 root root 0 May 31 03:18 memory.kmem.slabinfo -rw-r--r-- 1 root root 0 May 31 03:18 memory.kmem.tcp.failcnt -rw-r--r-- 1 root root 0 May 31 03:18 memory.kmem.tcp.limit_in_bytes -rw-r--r-- 1 root root 0 May 31 03:18 memory.kmem.tcp.max_usage_in_bytes -r--r--r-- 1 root root 0 May 31 03:18 memory.kmem.tcp.usage_in_bytes -r--r--r-- 1 root root 0 May 31 03:18 memory.kmem.usage_in_bytes -rw-r--r-- 1 root root 0 May 31 03:18 memory.limit_in_bytes -rw-r--r-- 1 root root 0 May 31 03:18 memory.max_usage_in_bytes -rw-r--r-- 1 root root 0 May 31 03:18 memory.memsw.failcnt -rw-r--r-- 1 root root 0 May 31 03:18 memory.memsw.limit_in_bytes -rw-r--r-- 1 root root 0 May 31 03:18 memory.memsw.max_usage_in_bytes -r--r--r-- 1 root root 0 May 31 03:18 memory.memsw.usage_in_bytes -rw-r--r-- 1 root root 0 May 31 03:18 memory.move_charge_at_immigrate -r--r--r-- 1 root root 0 May 31 03:18 memory.numa_stat -rw-r--r-- 1 root root 0 May 31 03:18 memory.oom_control ---------- 1 root root 0 May 31 03:18 memory.pressure_level -rw-r--r-- 1 root root 0 May 31 03:18 memory.soft_limit_in_bytes -r--r--r-- 1 root root 0 May 31 03:18 memory.stat -rw-r--r-- 1 root root 0 May 31 03:18 memory.swappiness -r--r--r-- 1 root root 0 May 31 03:18 memory.usage_in_bytes -rw-r--r-- 1 root root 0 May 31 03:18 memory.use_hierarchy -rw-r--r-- 1 root root 0 May 31 03:18 notify_on_release -rw-r--r-- 1 root root 0 May 31 03:18 tasks
我們主要關(guān)注一下幾個(gè)文件
memory.stat的文件包含的內容
查看memory.limit_in_bytes文件
/sys/fs/cgroup/memory # cat memory.limit_in_bytes 2147483648
計算容器的限制內存為2g,和yaml文件里面定義的限制內存一樣。查看memory.usag_in_bytes文件
/sys/fs/cgroup/memory # cat memory.usage_in_bytes 2739376
通過(guò)docker stats 容器id查看容器的占用內存,和memory.usage_in_bytes的數據相符。
~ # dd if=/dev/zero of=test bs=1M count=1500 1500+0 records in 1500+0 records out 1572864000 bytes (1.5GB) copied, 1.279989 seconds, 1.1GB/s
再次通過(guò)docker stats 容器id查看容器的占用內存
查看memory.usage_in_bytes文件
/sys/fs/cgroup/memory # cat memory.usage_in_bytes 1619329024
發(fā)現容器的占用內存達到了1.5g,查看memory.stat
/sys/fs/cgroup/memory # cat memory.stat cache 1572868096 rss 147456 rss_huge 0 mapped_file 0 dirty 1572868096 writeback 0 swap 0 pgpgin 384470 pgpgout 433 pgfault 607 pgmajfault 0 inactive_anon 77824 active_anon 12288 inactive_file 1572864000 active_file 4096 unevictable 0 hierarchical_memory_limit 2147483648 hierarchical_memsw_limit 4294967296 total_cache 1572868096 total_rss 147456 total_rss_huge 0 total_mapped_file 0 total_dirty 1572868096 total_writeback 0 total_swap 0 total_pgpgin 384470 total_pgpgout 433 total_pgfault 607 total_pgmajfault 0 total_inactive_anon 77824 total_active_anon 12288 total_inactive_file 1572864000 total_active_file 4096 total_unevictable 0
memory.stat文件中的cache字段添加了1.5g,而inactive_file字段為1.5g,因此,dd所產(chǎn)生的文件cache計算在inactive_file上。這就導致了所看到的容器內存的監控居高不下,因為cache是可重用的,并不能反映進(jìn)程占用內存。
一般情況下,計算監控內存可根據計算公式:
active_anon + inactive_anon = anonymous memory + file cache for tmpfs + swap cache Therefore active_anon + inactive_anon ≠ rss, because rss does not include tmpfs. active_file + inactive_file = cache - size of tmpfs
所以實(shí)際內存使用計算為:
real_used = memory.usage_in_bytes - (active_file + inactive_file)
(1)準備tomcat鏡像和jmeter壓測工具,tomcat的yaml文件如下
apiVersion: extensions/v1beta1 kind: Deployment metadata: name: tomcat-deployment spec: replicas: 1 template: metadata: labels: app: tomcat spec: containers: - name: tomcat image: registy.dcos:8021/public/tomcat:8 ports: - containerPort: 8080 resources: limits: cpu: "1" memory: 300Mi --- apiVersion: v1 kind: Service metadata: labels: name: tomcat name: tomcat namespace: default spec: ports: - name: tomcat port: 8080 protocol: TCP targetPort: 8080 type: NodePort selector: app: tomcat
yaml文件中限制tomcat鏡像的使用內存為300Mi,執行命令生成文件。通過(guò)docker stats查看沒(méi)有負載情況下tomcat容器的內存占用。
(2)提取tomcat的service nodePort端口
[docker@ecs-5f72-0006 ~]$ kubectl get svc tomcat -o=custom-columns=nodePort:.spec.ports[0].nodePort nodePort 31401
(3)登陸jmeter官網(wǎng)下載壓測工具
在windows上運行jmeter工具,到bin目錄點(diǎn)擊運行jmeter,配置jmeter如下:
配置好測試選項后點(diǎn)擊啟動(dòng)按鈕開(kāi)始壓測,通過(guò)docker stats查看容器內存使用情況發(fā)現已經(jīng)到達限制。
通過(guò)kubectl get pods查看pod的運行情況發(fā)現tomcat由于內存超過(guò)限制值被kill掉。
關(guān)于docker stats內存監控的問(wèn)題一直存在,docker將cache/buffer納入內存計算引起誤解。docker內存的計算方式和linux的內存使用計算方式一致,也包含了cache/buffer。
但是cache是可重復利用的,經(jīng)常使用在I/O請求上,使用內存來(lái)緩解可能被再次訪(fǎng)問(wèn)的數據,為提高系統性能。
在官方github上,也有很多人提交了關(guān)于內存監控的issue,直到了Docker 17.06版本,docker stats才解決了這個(gè)問(wèn)題。
但是這也僅僅是docker stats的顯示看起來(lái)正常了,而進(jìn)入容器查看內存的使用還是包含的cache,如果直接使用cadvisor搜集的數據,還是會(huì )出現包含了cache的情況。
通過(guò)壓測docker,最后發(fā)現當壓測到程序的限制內存時(shí),pod出現重啟,這也解釋了我們在使用docker監控時(shí),即使內存占用99%+,卻不出現pod重啟的情況,這里面有相當一部分的內存是cache占用。
以上為個(gè)人經(jīng)驗,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。
免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng )、來(lái)自本網(wǎng)站內容采集于網(wǎng)絡(luò )互聯(lián)網(wǎng)轉載等其它媒體和分享為主,內容觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如侵犯了原作者的版權,請告知一經(jīng)查實(shí),將立刻刪除涉嫌侵權內容,聯(lián)系我們QQ:712375056,同時(shí)歡迎投稿傳遞力量。
Copyright ? 2009-2022 56dr.com. All Rights Reserved. 特網(wǎng)科技 特網(wǎng)云 版權所有 特網(wǎng)科技 粵ICP備16109289號
域名注冊服務(wù)機構:阿里云計算有限公司(萬(wàn)網(wǎng)) 域名服務(wù)機構:煙臺帝思普網(wǎng)絡(luò )科技有限公司(DNSPod) CDN服務(wù):阿里云計算有限公司 百度云 中國互聯(lián)網(wǎng)舉報中心 增值電信業(yè)務(wù)經(jīng)營(yíng)許可證B2
建議您使用Chrome、Firefox、Edge、IE10及以上版本和360等主流瀏覽器瀏覽本網(wǎng)站