Difference between revisions of "MemJobs"
(→CMS) |
Edith Knoops (talk | contribs) |
||
Ligne 141: | Ligne 141: | ||
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/ | Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/ | ||
− | Recommendation: Mémoire 2Go/coeurs: couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c'est fait mettre limite au moins 3x la mémoire. | + | - Recommendation: Mémoire 2Go/coeurs: couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c'est fait mettre limite au moins 3x la mémoire. |
+ | |||
+ | -Au niveau de l'envoi des jobs de ATLAS, la sélection du site est fait en fonction de la mémoire demandée ( la mémoire nécessaire n'est pas remplie par l'utilisateur mais "calculée" je sais pas trop comment), donc un job demandant plus de 2 Go de mémoire n'est possible que sur les sites ayant une queue high memory. ATLAS n'insiste pas vraiment pour que les sites mettent à disposition ces queues, ie un petit nombre de site leur suffit. | ||
+ | |||
+ | |||
+ | |||
+ | |||
Memory | Memory |
Version du 15:12, 22 mars 2017
Sommaire
Introduction
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France. Les membres du projet LCG France sont invités à fournir sur cette page tout type d'information permettant au projet d'améliorer la gestion de la mémoire. Voici quelques finalités :
- les achats de RAM sont-il adaptés ?
- les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire
- des efforts doivent-ils être fournis par les sites pour répondre à d'éventuels problèmes liés à la consommation de mémoire
- ...
Configuration des worker nodes
Merci d'indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.
Site
|
Système de batch
|
RAM/core
|
Limitation mémoire
sur jobs (Y/N) |
Type de limite | Seuil (GB)
|
Dependance
selon VO (Y/N) |
Informations
Supplémentaires |
---|---|---|---|---|---|---|---|
CCIN2P3 | UGE | 3GB | Y | vmem & rss | [3-4] GB RSS | Y | Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives. |
CPPM | Torque Maui | 2, 2.5, 3 Go (selon wn) | N | ||||
GRIF-LAL | HTCondor | 2Go | N | ||||
GRIF-LLR | HTCondor | 2Go | N | ||||
GRIF-LPNHE | Torque Maui | 2Go | Y | vmem (pvmem) | 4Go vmem, 3Go vmem/core (multicore) | N |
Consommation des jobs
On reporte ici les valeurs typiques de consommation mémoire moyenne observée sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core
Site | ALICE | ATLAS | CMS | LHCb | Observations |
---|---|---|---|---|---|
CCIN2P3 | x | x | 3,5 GB (défaut CMS 2 GB en RSS) | x | |
GRIF-LAL | x | x | x | 3.44 Go VMEM | |
GRIF-LLR | x | x | x | 3.31 Go VMEM | |
GRIF-LPNHE | x | x | x | 3.18 Go VMEM |
Vision des expériences
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites. La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...
ALICE
Pas d'etude serieuse menee jusqu'ici, et pas de besoin particulier. Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd'hui si ces valeurs sont transitoires ou constantes, d'ou la necessite d'analyser la consommation au fur et a mesure que le job se deroule.
ATLAS
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/
- Recommendation: Mémoire 2Go/coeurs: couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c'est fait mettre limite au moins 3x la mémoire.
-Au niveau de l'envoi des jobs de ATLAS, la sélection du site est fait en fonction de la mémoire demandée ( la mémoire nécessaire n'est pas remplie par l'utilisateur mais "calculée" je sais pas trop comment), donc un job demandant plus de 2 Go de mémoire n'est possible que sur les sites ayant une queue high memory. ATLAS n'insiste pas vraiment pour que les sites mettent à disposition ces queues, ie un petit nombre de site leur suffit.
Memory ● Vmem: memory mapping in 64bit can be several times the actual memory used it doesn't mean it gets used. ● Smaps RSS: physical memory used by a job double counting the memory shared with other jobs ● ≠ from cgroups RSS ● Smaps PSS: physical memory used by a job without double counting ✓ ● cgroups RSS: physical memory used by the jobs without double counting ✓ ● Quantitatively similar smaps PSS What batch systems do? ● Batch systems without cgroups ● See the same RSS as reported in smaps ● Kill on vmem which is NOT a physical memory measure ● ● ● If you insist on this you need to set it at least 3 times the RAM requested by the job If you kill with the scheduler it is likely to the same problem Sites with cgroups ● Can setup soft and hard limits on the values the job reports ● Soft limit allows the kernel to decide if the job can keep on using the extra RAM or has to swap ● Hard limit will kill the job based on RAM ● Often set to 2 or 3 times the RAM requested by the job
CMS
Depuis le passage au multicore, la mémoire (RSS) est gérée "globalement" au niveau du pilote lui-même qui va essayer d'utiliser au mieux les ressources auxquelles il a accès (mémoire, CPU, disque). Le pilote adaptera ainsi les "types" de jobs (différentes configurations [job x core] possibles) et les payloads exécutés pour optimiser l'utilisation des ressources. Les ressources auxquelles il a accès dépendent du site, et sont configurés "en dur" au niveau des factories. Par défaut, CMS se base sur les demandes de ressources figurant sur la "VO Id card", mais celles-ci peuvent être modifiées en accord avec le site (c'est par exemple le cas du CC qui fournit plus de mémoire).
LHCb
Besoins des sites
Insérez ici ce qu'il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site. Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d'infrastructure matérielle, de documentation, ce que vous n'avez pas et que vous voudriez avoir.