Laisser un commentaire

Optimiser la gestion des ressources système avec ulimit

Vous le saviez peut-être, Linux, comme d’autres systèmes, attribue des limites par défaut aux processus et aux utilisateurs. Ces limites sont définies par ulimit. Cela permet de s’assurer que l’OS reste disponible pour tous et ne vienne pas à crasher. Les réglages par défaut sont assez prudents et, il y a de nombreuses situations où il peut être intéressant d’adapter cela à nos propres besoins. Partons à l’exploration du pourquoi et du comment !

Illustration par l’exemple

Il y a quelques semaines, alors que j’étais en train de programmer la gestion de l’encodage des médias pour Buzeo, j’ai fait face à une erreur inhabituelle : EAGAIN. Je creuse quelque peu et trouve la définition suivante :

A temporary resource shortage made an operation impossible. fork can return this error. It indicates that the shortage is expected to pass, so your program can try the call again later and it may succeed. It is probably a good idea to delay for a few seconds before trying it again, to allow time for other processes to release scarce resources.

Gnu.org

En gros, cette erreur fait référence à l’épuisement d’une ressource du système. Il ne peut donc pas l’allouer au nouveau processus. C’est là que commence l’enquête. L’encodage est une opération cpu-intensive. Cependant mon programme monitore la charge processeur et tant que celui-ci n’est pas à pleine charge, de nouvelles tâches sont lancées. Quant à la RAM, le système en a encore largement à revendre.

C’est là qu’intervient ulimit. Pour des raisons évidentes de stabilité du système, il permet d’empêcher un utilisateur ou process de s’accaparer toutes les ressources. Cependant, lorsque cet usage est légitime, l’inconvénient est qu’il peut brider son fonctionnement ou provoquer des erreurs, alors même que le système n’est pas exploité à son maximum.

Les différents paramètres d’ulimit

J’ai parlé ci-dessus de CPU et de RAM, cependant ulimit permet de définir bien d’autres limites que celle-ci. D’ailleurs, on entend souvent parler de la limite des max open files qui nécessite d’être augmentée pour le bon fonctionnement de certains logiciels (mongoDB par exemple).

Sans surprise, la commande qui vous permet de controller tout ça s’appelle ulimit. L’option -a permet d’afficher les réglages pour l’utilisateur courant.

Buzut$ ulimit -a
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 15584
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 1024
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 15584
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

Il s’agit ci-dessus des réglages par défaut d’une Ubuntu 14.04. Voyons dans le détail les implications de ces différents paramètres.

core file size
Nombre maximum de core dumps. Il s'agit d'un snapshot du système comprenant l'état de la RAM, le context switch et les registres processeur. C'est à utiliser à des fins de debugging seulement et vous n'en avez habituellement pas besoin. À laissez à 0 donc, au risque de rapidement saturer votre espace disque.
data seg size
Taille maximum du segment de données d'un programme. Il s'agit d'une portion d'espace d'adressage virtuel d'un programme contenant les différentes variables de ce dernier.
scheduling priority
Priorité maximum que l'on peut attribuer à un processus. La gestion des priorités, ou ordonnancement, définit les processus l'ordre dans lequel les processus auront accès au processeur (utile lorsqu'on a besoin de faire plusieurs tâches à la fois).
file size
Taille maximum des fichiers écrit par le shell et ses processus enfants.
pending signal
Un poil complexe, on spécifie ici la limite du nombre de signaux qui peuvent être en attente pour un process donné (tels que sigterm, sigkill, sigstop…) lorsque ce dernier est en attente d'I/O. Lorsqu'un process est dans cet état, il n'est pas possible de l'interrompre (le kernet attend que le process "se réveille"), c'est pour cela qu'il y a une file d'attente. Le man de sigpending vous en apprendra plus au besoin.
max locked memory
Taille maximum de mémoire qu'un processus peut "verrouiller" en RAM afin de prévenir que ce dernier ne swap.
max memory size
Taille maximale qu'un processus peut occuper en RAM (Appelé resident set size. À ne pas confondre avec la taille totale de mémoire virtuelle que le processus possède.
open files
Nombre de descripteur de fichier qui peuvent être ouvert concurremment.
POSIX message queues
Nombre maximum (en bytes) dans la file d'attente de message POSIX. N'hésitez pas à consulter le man de la message queue pour plus de détails.
real-time priority
C'est la priorité maximale pour un processus, telle qu'il ne peut être interrompu (c'est pour cela qu'on l'appelle real time).
stack size
Taille maximum de la stack size. Il s'agit d'une région réservée en mémoire (à ne pas confondre avec la heap memory) utilisée pour stocker l'emplacement des appels à fonction. Cependant, le développeur peut choisir d'y stocker d'autres informations.
cpu time
Temps processeur maximum en secondes.
max user processes
Il s'agit du nombre maximal de processus qu'un utilisateur peut démarrer ou forker.
virtual memory
Taille maximale de mémoire virtuelle disponible pour un utilisateur donné. Il s'agit de la somme de la mémoire physique et de la mémoire de masse (les disques dur).
file locks
Nombre maximum de de fichiers qu'un processus peut verrouiller. Le file locking est un mécanisme permettant de restreindre l'accès d'un fichier à seulement un utilisateur ou processus à un instant donné.

Poser un diagnostic

Il est bien souvent délicat de savoir exactement dans quelle mesure on utilise les ressources. Bien sur, top peut nous donner une idée. Cela dit, le plupart du temps, nous avons à faire à des questions de file descriptors ou de nombre de processus. Je vous explique donc comment mesurer ce que vous utilisez.

Processus

Commençons par le plus facile : le nombre de processus. Il s’agit d’un petit one-liner :

# ps h -Led -o user | sort | uniq -c | sort -n
      1 Debian-exim
      1 messagebus
      1 ntpd
      4 syslog
      5 newrelic
     14 www-data
     34 gogs
     34 mysql
     94 root

On voit donc l’ensemble de nos utilisateurs et le nombre de processus que chacun d’entre eux a lancé. Easy !

Descripteur de fichier

Pour les file descriptors, c’est un peu plus long. Mais ne vous en faites pas, ce n’est pas non plus insurmontable. Nous avons vu dans la commande précédente que mysql utilise 34 processus. Nous allons trouver combien cet utilisateur possède de file descriptors.

Premièrement, on trouve son pid à l’aide la commande ps :

# ps aux | grep mysql
root       853  0.0  0.0  18148   756 ?        S    Apr15   0:00 /bin/bash /usr/bin/mysqld_safe
mysql     1085  0.5 20.4 941668 412232 ?       Sl   Apr15 220:17 /usr/sbin/mysqld --basedir=/usr --datadir=/var/lib/mysql --plugin-dir=/usr/lib/mysql/plugin --user=mysql --skip-log-error --pid-file=/var/run/mysqld/mysqld.pid --socket=/var/run/mysqld/mysqld.sock --port=3306

L’utilisateur mysql possède le pid 1085. On va maintenant compter le nombre d’open files grace à la commande lsof :

# lsof -p 1085 | wc -l
410

Voilà, on sait que notre mysql possède 410 file descriptors ouverts.

Usage mémoire

Comme nous l’avons vu, il existe plusieurs types de mémoires. Sur notre machine, cela se traduit par l’usage de la RAM ou du SWAP.

Plusieurs commandes permettent d’obtenir d’un coup d’œil la mémoire globalement consommée par la machine et les différents processus qui occupent la RAM. J’utilise pour cela la plupart du temps htop et glances. Ils ne sont pas installés par défaut sur les ditributions, mais répondent au même usage que le vénérable top… en mieux.

glances présente l’avantage d’afficher plus d’infos de base, c’est un peu le couteau suisse car on a d’un clin d’œil (at a glance, d’un coup d’œil) toutes les infos du système : cpu, load, ram, swap, i/o disques, remplissage des disque etc. De son côté, htop présente l’avantage de permettre de filtrer les infos selon divers critères (tiens, trier par ordre de consommation mémoire…).

Malgré ces outils géniaux, il nous manque la possibilité de clairement savoir qui occupe tout notre SWAP. C’est sans compter la magie de /proc/*/status et ce magnifique petit one-liner qui vous servira les squatteurs sur un plateau d’argent, rangés par taille s’il vous plaît !

for file in /proc/*/status ; do awk '/VmSwap|Name/{printf $2 " " $3}END{ print ""}' $file; done | sort -k 2 -n -r
bundle 101244 kB
mysqld 70420 kB
java 22764 kB
fail2ban-server 6816 kB
nginx 4624 kB
nginx 4588 kB
log2gelf 3980 kB
bundle 2880 kB
redis-server 2148 kB
sensu-client 1568 kB
(sd-pam) 1132 kB
nginx 968 kB
postgres 924 kB
bundle 880 kB
dhclient 856 kB
…

Modifier la configuration

Il est grand temps de tuner ces réglages. Vous avez du remarquer en faisant ulimit -a qu’à chaque ligne correspondait une lettre. En fait, vous pouvez l’utiliser pour modifier dynamiquement la configuration. Par exemple, si je veux augmenter le nombre d’open files (n), à 64 000, il me suffit d’utiliser la commande ulimit -n 64000.

Cette manière présente tout de même quelques limites… La première : elle n’est valable que dans le shell courant ; la seconde : elle ne survit pas à un redémarrage. Pour configurer les limites de manière persistante et pour différents utilisateurs, il va falloir se diriger vers un – ou plutôt plusieurs – fichiers de conf.

Le premier fichier, /etc/security/limits.conf, contient beaucoup de choses, mais c’est surtout la fin qui nous intéresse :

#*               soft    core            0
#root            hard    core            100000
#*               hard    rss             10000
#@student        hard    nproc           20
#@faculty        soft    nproc           20
#@faculty        hard    nproc           50
#ftp             hard    nproc           0
#ftp             -       chroot          /ftp
#@student        -       maxlogins       4

# je rajoute ici une limite à 64k pour les file descriptors pour l'utilisateur mongod (soft et hard)
mongod          soft    nofile          64000
mongod          hard    nofile          64000

Comme vous le voyez dans l’exemple, vous pouvez désigner tous les utilisateurs avec une wildcard. Par ailleurs, je parle ici de limites soft et hard. La différence est que la limite soft peut être modifiée à la hausse par l’utilisateur ou le processus, tandis qu’il ne pourra pas dépasser la limite hard. Le soft est une valeur par défaut en quelque sorte. Ici je fixe la même valeur pour les deux, ce qui signifie que Mongo aura par défaut 64 000 file descriptors et qu’il ne pourra aller au delà.

Enfin, vous devrez également modifier deux fichiers :

Il vous faudra ajouter à chacun d’entre eux la ligne suivante :

session required                        pam_limits.so

Pour la petite histoire, mon erreur venait de la stack size trop petite. J’espère que cet article vous aura éclairé.

Commentaires

Rejoignez la discussion !

Vous pouvez utiliser Markdown pour les liens [ancre de lien](url), la mise en *italique* et en **gras**. Enfin pour le code, vous pouvez utiliser la syntaxe `inline` et la syntaxe bloc

```
ceci est un bloc
de code
```