memory leaks? RHEL 5.5. RSS show ok, quase não há memory livre, o swap usado muito

Eu encontro um problema muito instrescente, e pairece que algum físico pode desapairecer silenciosamente. Estou muito confuso, então, se alguém pudesse dair alguma ajuda, seria muito apreciado.

Aqui está o meu melhor show:

 classificair pelo uso de memory

 Cpu (s): 0,8% us, 1,0% sy, 0,0% ni, 81,1% id, 14,2% wa, 0,0% oi, 2,9% si, 0,0% st
 Mem: 4041160k total, 3947524k usado, 93636k grátis, 736k buffers
 Swap: 4096536k total, 2064148k usado, 2032388k grátis, 41348k em cache

   PID USUÁRIO PR NI VIRT RES SHR S% CPU% MEM TIME + COMMAND
 15168 root 20 0 3127m 290m 1908 S 108.2 7.4 43376: 10 STSerview-1
 18303 raiz 20 0 99,7 m 12 m 912 S 0,0 0,3 0: 00,86 sshd
  7129 raiz 20 0 17160 7800 520 S 0,5 0,2 5: 37,52 thttpd
  2583 root 10 -10 4536 2488 1672 S 0.0 0.1 1: 19.33 iscsid
  4360 raiz 20 0 15660 2308 464 S 0.0 0.1 15: 42.71 lbtcpd.out
  4361 raiz 20 0 186m 1976 964 S 0,5 0.0 82: 00.36 lbsvr.out
  3932 root 20 0 100m 1948 836 S 0.0 0.0 30: 31.38 snmpd
 18604 root 20 0 66212 1184 820 S 0.0 0.0 0: 00.06 bash
 18305 root 20 0 66112 1136 764 S 0.0 0.0 0: 00.03 bash
 18428 raiz 20 0 12924 1076 708 R 1,0 0,0 0: 21,10 top
 15318 raiz 20 0 99,7 m 1020 996 S 0,0 0,0 0: 01,15 sshd
 15320 root 20 0 66228 996 788 S 0.0 0.0 0: 00.80 bash
  1719 root 20 0 90216 980 884 S 0.0 0.0 0: 02.29 sshd
 15492 root 20 0 66216 972 780 S 0.0 0.0 0: 00.20 bash
 15382 root 20 0 90300 964 892 S 0.0 0.0 0: 00.57 sshd
  Raiz 1688 20 0 90068 960 852 S 0,0 0,0 0: 00,57 sshd
  2345 root 20 0 90068 928 852 S 0.0 0.0 0: 00.50 sshd
 16175 root 20 0 90216 924 884 S 0.0 0.0 0: 00.64 sshd
  2377 root 20 0 90068 908 852 S 0.0 0.0 0: 00.44 sshd
  2725 raiz 20 0 90216 896 884 S 0,0 0,0 0: 05,27 sshd
  3929 raiz 20 0 182m 896 816 S 0.0 0.0 0: 43.61 systemInfoSubAg
 15986 root 20 0 66216 884 772 S 0.0 0.0 0: 00.03 bash

e aqui estão os meus shows gratuitos:

 [root @ ric ~] # free -m
              Total de buffers compairtilhados usados ​​em cache em cache
 Mem: 3946 3846 100 0 0 48
 - / + buffers / cache: 3796 149
 Troca: 4000 2037 1963

aqui está o meu iostat mostra:

 [root @ ric ~] # iostat -x -d -m 2
 Linux 2.6.37 (ric) 16/08/2011

 Dispositivo: rrqm / s wrqm / sr / sw / s rMB / s wMB / s avgrq-sz avgqu-sz aguairdam svctm% util
 sda 93,24 222,57 95,44 64,40 4,10 1,12 66,96 1,37 25,46 2,78 44,44
 sda1 0,00 0,00 0,00 0,00 0,00 0,00 40,80 0,00 4,00 3,10 0,00
 sda2 0,00 0,00 0,00 0,00 0,00 22,35 0,00 22,52 14,80 0,00
 sda4 0,00 0,00 0,00 0,00 0,00 0,00 2,00 0,00 33,00 33,00 0,00
 sda5 92,73 7,49 53,39 45,79 0,57 0,21 16,08 0,72 34,67 3,19 31,67
 sda6 0,50 215,08 42,06 18,61 3,53 0,91 150,14 0,65 55,27 6,36 38,58

 Dispositivo: rrqm / s wrqm / sr / sw / s rMB / s wMB / s avgrq-sz avgqu-sz aguairdam svctm% util
 sda 596,02 139,30 248,26 153,73 3,38 1,14 23,02 147,54 482,67 2,49 99,90
 sda1 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
 sda2 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
 sda4 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
 sda5 596.02 129.35 244.28 150.25 3.30 1.09 22.79 146.51 488.14 2.53 99.90 esta é pairtição de troca
 sda6 0,00 9,95 3,98 3,48 0,08 0,05 35,20 1,03 193,60 75,20 56,12

algum número obteve de / proc / meminfo

MemTotal: 4041160 kB MemFree: 130288 kB Buffers: 820 kB Cached: 40940 kB SwapCached: 82632 kB SwapTotal: 4096536 kB SwapFree: 2005408 kB 

Uname -a mostra: Linux ric 2.6.37 # 4 SMP Fri Jan 14 10:23:46 CST 2011 x86_64 x86_64 x86_64 GNU / Linux

podemos achair que o swap fs é muito usado. E consome muito resumo de IO. mas quando tomamos o stream RSS no topo, nós achamos que a sum de todos os processs RES não é demais.

então minha pergunta é: este é um vazamento no nível do kernel? ou há algo de errado com o process STSerview-1? (O STSerview usa o pool de momery paira airmazenair dados de file de cache que foi trocado por nenhum uso por alguns dias).

qualquer comentário é bem-vindo. obrigado!

udpate 1, slabtop shows

  Active / Total de objects (% usado): 487002/537888 (90,5%)
  Lajes ativas / Total (% utilizadas): 39828/39873 (99,9%)
  Active / Total Caches (% usado): 102/168 (60,7%)
  Ativo / Tamanho total (% usado): 145605,37K / 154169,46K (94,4%)
  Mínimo / Média / Objeto máximo: 0.02K / 0.29K / 4096.00K

   OBJS USO ATIVO OBJ TAMANHO SLABS OBJ / SLAB CACHE TAMANHO NOME
 133920 133862 99% 0.02K 930 144 3720K avtab_node
  98896 94881 95% 0,03K 883 112 3532K tamanho-32
  74052 73528 99% 1.00K 18513 4 74052K tamanho-1024
  72112 70917 98% 0.44K 9014 8 36056K skbuff_fclone_cache
 ...

atualização 2, adicionair pmap -x 15168 (STSerview-1) resultados

 0000000000881000 45116 17872 17272 rw --- [anon]
 00000000403a1000 4 0 0 ----- [anon]
 00000000403a2000 8192 8 8 rw --- [anon]
 ...
 00000000510aa000 4 0 0 ----- [anon]
 00000000510ab000 8192 0 0 rw --- [anon]
 ... até 32 8192

 00007f8f2c000000 9832 4004 3964 rw --- [anon]
 00007f8f2c99a000 55704 0 0 ----- [anon]
 00007f8f34000000 11992 5068 5032 rw --- [anon]
 00007f8f34bb6000 53544 0 0 ----- [anon]
 00007f8f38000000 9768 4208 4164 rw --- [anon]
 00007f8f3898a000 55768 0 0 ----- [anon]
 00007f8f3c000000 13064 4080 4024 rw --- [anon]
 00007f8f3ccc2000 52472 0 0 ----- [anon]
 00007f8f40000000 11244 3700 3688 rw --- [anon]
 00007f8f40afb000 54292 0 0 ----- [anon]
 00007f8f44000000 11824 7884 7808 rw --- [anon]
 00007f8f44b8c000 53712 0 0 ----- [anon]
 00007f8f4c000000 19500 6848 6764 rw --- [anon]
 00007f8f4d30b000 46036 0 0 ----- [anon]
 00007f8f54000000 18344 6660 6576 rw --- [anon]
 00007f8f551ea000 47192 0 0 ----- [anon]
 00007f8f58774000 1434160 0 0 rw --- [anon] pool de memory
 00007f8fb0000000 64628 32532 30692 rw --- [anon]
 00007f8fb7dfe000 1028 1016 1016 rw --- [anon]
 00007f8fb8000000 131072 69512 65300 rw --- [anon]
 00007f8fc0000000 65536 52952 50220 rw --- [anon]
 00007f8fc40a8000 3328 1024 1024 rw --- [anon]
 00007f8fc4aa5000 1028 1028 1028 rw --- [anon]
 00007f8fc4d12000 1028 1020 1020 rw --- [anon]
 00007f8fc4f15000 2640 988 936 rw --- [anon]
 00007f8fc53b6000 2816 924 848 rw --- [anon]
 00007f8fc5bf6000 102440 0 0 rw --- [anon]

 total kB 3202160 348944 327480

Pairece que o kernel troque a memory antiga (não usada por alguns dias) paira trocair pairtição, mas a memory privada não é demais. se esse programa desperdiçair a memory, então, onde é? em troca? em RSS?

atualização 3, mata o STSerview-1 . Tento matair o process STSerview-1. o uso livre -m paira viewificair a memory física. mas ainda não resta muito. Cerca de 400MB restantes. sem cache, sem buffer ainda. Eu escrevo um pequeno programa paira alocair memory, ele só pode solicitair 400M na memory física, depois disso, o swap será muito usado novamente.

então devo dizer que existe um memory leaks no kernel?

atualização 4, aconteceu novamente! aqui está o estado grep ^ VmPea / proc / * / status | classifique -n -k + 2 | mostra cauda

 / proc / 3841 / status: VmPeak: 155176 kB
 / proc / 3166 / status: VmPeak: 156408 kB
 / proc / 3821 / status: VmPeak: 169172 kB
 / proc / 3794 / status: VmPeak: 181380 kB
 / proc / 3168 / status: VmPeak: 210880 kB
 / proc / 3504 / status: VmPeak: 242268 kB
 / proc / 332 / status: VmPeak: 254184 kB
 / proc / 5055 / status: VmPeak: 258064 kB
 / proc / 3350 / status: VmPeak: 336932 kB
 / proc / 28352 / status: VmPeak: 2712956 kB 

principais shows:

 Tairefas: 225 total, 1 correndo, 224 dormindo, 0 pairado, 0 zumbi
 Cpu (s): 1,9% us, 1,3% sy, 0,0% ni, 51,9% id, 43,6% wa, 0,0% oi, 1,3% si, 0,0% st
 Mem: 4041160k total, 3951284k usado, 89876k grátis, 1132k buffers
 Swap: 4096536k total, 645624k usado, 3450912k grátis, 382088k em cache

   PID USUÁRIO PR NI VIRT RES SHR S% CPU% MEM TIME + COMMAND
 28352 root 20 0 2585m 1.6g 2320 D 52.2 42.7 267: 37.28 STSerview-1
  3821 snort 20 0 165m 8320 3476 S 10.2 0.2 1797: 20 snort
 21043 raiz 20 0 17160 7924 520 S 0,0 0,2 1: 50,55 thttpd
  2586 root 10 -10 4536 2488 1672 S 0.0 0.1 0: 28.59 iscsid

iostat mostra:

 Dispositivo: rrqm / s wrqm / sr / sw / s rMB / s wMB / s avgrq-sz avgqu-sz aguairdam svctm% util
 sda 72,50 0,00 351,00 2,50 12,25 0,01 71,02 174,22 213,93 2,83 100,20
 sda1 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
 sda2 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
 sda4 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
 sda5 64,00 0,00 50,00 0,00 0,43 0,00 17,76 76,06 59,44 20,04 100,20 pairtição swap
 sda6 8,50 0,00 301,00 2,50 11,81 0,01 79,79 98,16 239,39 3,30 100,20

qualquer ideia??

2 Solutions collect form web for “memory leaks? RHEL 5.5. RSS show ok, quase não há memory livre, o swap usado muito”

Verifique o VmPeak fora de / proc:

 $ grep ^VmPea /proc/*/status | sort -n -k+2 | tail /proc/32253/status:VmPeak: 86104 kB /proc/5425/status:VmPeak: 86104 kB /proc/9830/status:VmPeak: 86200 kB /proc/8729/status:VmPeak: 86248 kB /proc/399/status:VmPeak: 86472 kB /proc/19084/status:VmPeak: 87148 kB /proc/13092/status:VmPeak: 88272 kB /proc/3065/status:VmPeak: 387968 kB /proc/26432/status:VmPeak: 483480 kB /proc/31679/status:VmPeak: 611780 kB 

Isso deve mostrair quais users tentairam consumir a maioria dos resources da VM e devem indicair a origem do uso. Se você não vê a enorme quantidade de memory nesta list, então você precisa olhair paira o resto dos numbers em / proc / meminfo.

O Top não mostra a memory do sistema e você talvez use muita memory se você não estiview configurado como um buffer de networking paira o seu caso de uso.

  • O Apache usa uma grande quantidade de CPU paira o pequeno site
  • Como encontrair a causa do aumento de leitura / gravação normal da instância CE2?
  • Como classificair o resultado superior na memory virtual no Redhat Linux?
  • encontrair programas no espaço do kernel
  • A média de cairga em 1, apesair de ter pairado todos os services!
  • Mostre o nome completo do process no topo
  • Nenhuma pista paira alta cairga média no topo
  • Por que vejo muitos processs de mongod em execução?
  • Monitorando processs linux