Obrigado pelas respostas...
galactus,Peço desculpas por criar outro tópico sobre o assunto, realmente não havia notado
este tópico sobre isso.
Mas é que 850 MB de ram física em uso assustam qualquer um, e isso ao iniciar o sistema... O outro tópico foi realmente muito esclarecedor, principalmente quando você cita uma notícia do Br-Linux:
Mas é exatamente isso que falei antes, não se trata de abrir e fechar aplicações, pelo menos não no meu caso. Ele ocupa muita memória sem que eu tenha "aberto" nenhuma aplicação e depois não libera mais esta memória. Só reiniciando. Olha, acabei de ler uma notícia no br-linux sobre a análise de memória do sistema. Um grupo de brasileiros conseguiu incluir uma ferramenta para medir a performance e analisar o consumo de memória, para o kernel 2.6.13. Parece que o atual sistema não é muito preciso, vejam o que eles disseram sobre o uso da memória:
"As informações de consumo de memória são: memória virtual, memória física, memória física compartilhada (suja ou limpa) e memória física privada (suja ou limpa)."
O link para quem quiser ler tudo:
http://br-linux.org/linux/?q=node/1954
Acho que pode ser isso, um BUG na leitura do consumo da memória.
A imprecisão na leitura de memória pode ser um bug? Sim, também me parece possível... No
segundo link que citei acima, o autor tem uma boa explicação para que tal imprecisão ocorra. Insisto que leiam, o texto é muito bom.
Vou citar um pequeno trecho do texto traduzido: (obs.: meu inglês é péssimo)
A maioria de programas principais no Linux usam bibliotecas compartilhadas para facilitar determinada funcionalidade. Por exemplo, um programa de edição de texto do KDE usa diversas bibliotecas compartilhadas do KDE (...), diversas bibliotecas de X (...), e diversas bibliotecas de sistema gerais (...). Muitas destas bibliotecas compartilhadas, (...), são usadas por muitos dos programas para o sistema Linux (...). Então o Linux se vale de um grande truque: carregará apenas uma cópia das bibliotecas compartilhadas na memória e usará essa cópia para cada programa que fizer referência a ele.
... muitas ferramentas não se importam muito com este truque muito comum; relatam simplesmente quanto de memória um processo usa, sem no entanto, levar em consideração se essa memória está compartilhada com outros processos também. Dois programas podiam conseqüentemente usar uma grande biblioteca compartilhada, mas, nas informações obtidas, tal biblioteca apareceria na contagem de memória dos dois programas; ou seja, a biblioteca está sendo contada em dobro, e isso pode confundir se você não sabe para onde está indo.
O texto é muito mais que isso, mas esta foi a parte que achei mais relevante para essa discussão. E fiquei aqui pensando no problema que um adm de sistemas teria em mãos ao designar recursos para um determinada tarefa ou até para planejar um upgrade. Imaginemos, por exemplo, que você tem em mãos um servidor usando PHP, MySQL e Apache (muito comum hoje em dia). Você desenvolveu a solução, e você também administrará tal servidor. Planeja tudo detalhadamente, e após conhecer tudo quanto pode acerca da situação que enfrentará, designa os recursos que seriam necessários para tal servidor.
Para um usuário doméstico menos mal, mas no mundo corporativo competitivo que temos... confiar plenamente nas informações passadas por esses comandos pode ser um tiro no pé. Pode significar investir demais, e no momento errado. Mas por outro lado, a situação não parece ser o caos que imagino, considerando o sucesso, e o uso crescente de Linux em servidores que exigem confiabilidade, estabilidade, rapidez e segurança. Mas para que assim seja, acredito que não foi acreditando cegamente no comando free que adms obtiveram êxito.
Ainda sobre o outro post... realmente vocês discutiram muito esse assunto, tem muita coisa por lá. Isso aqui por exemplo explica muitas coisas:
Pesquisei um pouco sobre o assunto e constatei que o uso de quase 100% da memoria ram é normal e em teoria não deve deixar o sistema mais lento, não por este motivo.
Parte desses 100% é cache. Então a memória utilizada pelos programas é a Memória Total (no meu caso quase 100%) - cache (15%) - Buffers (5%) = 80% da ram para programas.
Diz que o sistema age dessa forma para melhorar a performance.
Parece um dilema, ao inves de usar o mínimo possível da RAM a solução encontrada foi usar o máximo possível.
Segue um dos links que li a respeito.
http://ubuntu.wordpress.com/2005/10/07/memory-swap-management/
Mas constatei que a memória utilizada não é toda liberada em forma de cache.
Eu abri vários programas até quase se esgotar depois fechei os programas e a memoria não foi totalmente liberada. Liberou muita coisa mas não ficou igual ao inicializar o sistema.
Mas tanto antes como depois de fechar os programas, a memória utilizada já era próximo de 100%.
Talvez o pessoal pudesse postar o resultado do comando free -m aqui no fórum para nós compararmos e verificar se existe algo diferente de um sistema para outro, tipo a memória usada ser menor do que 50%.
O da minha máquina deu isso:
total used free shared buffers cached
Mem: 234 229 4 0 10 43
-/+ buffers/cache: 175 58
Swap: 352 146 206
Conclusão: Vou continuar procurando informações sobre isso, e torço para que isso seja melhor no Dapper (ainda não testei).
Até mais... qualquer outra informação sobre isso agradeço desde já...