Difference between revisions of "MemJobs"

Un article de lcgwiki.
Jump to: navigation, search
(CMS)
Ligne 141: Ligne 141:
 
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/
 
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/
  
Recommendation: Mémoire 2Go/coeurs:  couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c'est fait mettre limite au moins 3x la mémoire.  
+
- Recommendation: Mémoire 2Go/coeurs:  couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c'est fait mettre limite au moins 3x la mémoire.  
 +
 
 +
-Au niveau de l'envoi des jobs de ATLAS, la sélection du site est fait en fonction de la mémoire demandée ( la mémoire nécessaire n'est pas remplie par l'utilisateur mais "calculée" je sais pas trop comment), donc un job demandant plus de 2 Go de mémoire n'est possible que sur les sites ayant une queue high memory. ATLAS n'insiste pas vraiment pour que les sites mettent à disposition ces queues, ie un petit nombre de site leur suffit.
 +
 
 +
 
 +
 
 +
 
  
 
Memory
 
Memory

Version du 15:12, 22 mars 2017

Introduction

Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France. Les membres du projet LCG France sont invités à fournir sur cette page tout type d'information permettant au projet d'améliorer la gestion de la mémoire. Voici quelques finalités :

  • les achats de RAM sont-il adaptés ?
  • les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire
  • des efforts doivent-ils être fournis par les sites pour répondre à d'éventuels problèmes liés à la consommation de mémoire
  • ...

Configuration des worker nodes

Merci d'indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.

Site


Système de batch


RAM/core


Limitation mémoire

sur jobs (Y/N)

Type de limite Seuil (GB)


Dependance

selon VO (Y/N)

Informations

Supplémentaires

CCIN2P3 UGE 3GB Y vmem & rss [3-4] GB RSS Y Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.
CPPM Torque Maui 2, 2.5, 3 Go (selon wn) N
GRIF-LAL HTCondor 2Go N
GRIF-LLR HTCondor 2Go N
GRIF-LPNHE Torque Maui 2Go Y vmem (pvmem) 4Go vmem, 3Go vmem/core (multicore) N

Consommation des jobs

On reporte ici les valeurs typiques de consommation mémoire moyenne observée sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core

Site ALICE ATLAS CMS LHCb Observations
CCIN2P3 x x 3,5 GB (défaut CMS 2 GB en RSS) x
GRIF-LAL x x x 3.44 Go VMEM
GRIF-LLR x x x 3.31 Go VMEM
GRIF-LPNHE x x x 3.18 Go VMEM

Vision des expériences

Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites. La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...

ALICE

Pas d'etude serieuse menee jusqu'ici, et pas de besoin particulier. Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd'hui si ces valeurs sont transitoires ou constantes, d'ou la necessite d'analyser la consommation au fur et a mesure que le job se deroule.

ATLAS

Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/

- Recommendation: Mémoire 2Go/coeurs: couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c'est fait mettre limite au moins 3x la mémoire.

-Au niveau de l'envoi des jobs de ATLAS, la sélection du site est fait en fonction de la mémoire demandée ( la mémoire nécessaire n'est pas remplie par l'utilisateur mais "calculée" je sais pas trop comment), donc un job demandant plus de 2 Go de mémoire n'est possible que sur les sites ayant une queue high memory. ATLAS n'insiste pas vraiment pour que les sites mettent à disposition ces queues, ie un petit nombre de site leur suffit.



Memory ● Vmem: memory mapping in 64bit can be several times the actual memory used it doesn't mean it gets used.  ● Smaps RSS: physical memory used by a job double counting the memory shared with other jobs  ● ≠ from cgroups RSS ● Smaps PSS: physical memory used by a job without double counting ✓ ● cgroups RSS: physical memory used by the jobs without double counting ✓ ● Quantitatively similar smaps PSS What batch systems do? ● Batch systems without cgroups ● See the same RSS as reported in smaps ● Kill on vmem which is NOT a physical memory measure ● ● ● If you insist on this you need to set it at least 3 times the RAM requested by the job If you kill with the scheduler it is likely to the same problem Sites with cgroups ● Can setup soft and hard limits on the values the job reports ● Soft limit allows the kernel to decide if the job can keep on using the extra RAM or has to swap ● Hard limit will kill the job based on RAM ● Often set to 2 or 3 times the RAM requested by the job

CMS

Depuis le passage au multicore, la mémoire (RSS) est gérée "globalement" au niveau du pilote lui-même qui va essayer d'utiliser au mieux les ressources auxquelles il a accès (mémoire, CPU, disque). Le pilote adaptera ainsi les "types" de jobs (différentes configurations [job x core] possibles) et les payloads exécutés pour optimiser l'utilisation des ressources. Les ressources auxquelles il a accès dépendent du site, et sont configurés "en dur" au niveau des factories. Par défaut, CMS se base sur les demandes de ressources figurant sur la "VO Id card", mais celles-ci peuvent être modifiées en accord avec le site (c'est par exemple le cas du CC qui fournit plus de mémoire).

LHCb

Besoins des sites

Insérez ici ce qu'il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site. Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d'infrastructure matérielle, de documentation, ce que vous n'avez pas et que vous voudriez avoir.