<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://lcg.in2p3.fr/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Edith+Knoops</id>
	<title>lcgwiki - Contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://lcg.in2p3.fr/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Edith+Knoops"/>
	<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/Special:Contributions/Edith_Knoops"/>
	<updated>2026-04-17T09:25:01Z</updated>
	<subtitle>Contributions</subtitle>
	<generator>MediaWiki 1.43.1</generator>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8102</id>
		<title>MemJobs</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8102"/>
		<updated>2017-03-23T10:00:35Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=== Introduction ===&lt;br /&gt;
&lt;br /&gt;
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France.&lt;br /&gt;
Les membres du projet LCG France sont invités à fournir sur cette page tout type d&#039;information permettant au projet d&#039;améliorer la gestion de la mémoire.&lt;br /&gt;
Voici quelques finalités :&lt;br /&gt;
&lt;br /&gt;
* les achats de RAM sont-il adaptés ?&lt;br /&gt;
* les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire&lt;br /&gt;
* des efforts doivent-ils être fournis par les sites pour répondre à d&#039;éventuels problèmes liés à la consommation de mémoire&lt;br /&gt;
* ...&lt;br /&gt;
&lt;br /&gt;
=== Configuration des worker nodes ===&lt;br /&gt;
&lt;br /&gt;
Merci d&#039;indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Système de batch&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! RAM/core&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Limitation mémoire &lt;br /&gt;
sur jobs (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Type de limite&lt;br /&gt;
&lt;br /&gt;
! Seuil (GB)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Dependance &lt;br /&gt;
selon VO (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Informations&lt;br /&gt;
Supplémentaires&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| UGE&lt;br /&gt;
| 3GB&lt;br /&gt;
| Y&lt;br /&gt;
| vmem &amp;amp; rss&lt;br /&gt;
| [3-4] GB RSS&lt;br /&gt;
| Y&lt;br /&gt;
| Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.&lt;br /&gt;
|-&lt;br /&gt;
| CPPM&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2, 2.5, 3 Go (selon wn)&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2Go&lt;br /&gt;
| Y&lt;br /&gt;
| vmem (pvmem)&lt;br /&gt;
| 4Go vmem, 3Go vmem/core (multicore)&lt;br /&gt;
| N&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Consommation des jobs ===&lt;br /&gt;
&lt;br /&gt;
On reporte ici les valeurs typiques de consommation mémoire moyenne &#039;&#039;observée&#039;&#039; sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
! ALICE&lt;br /&gt;
! ATLAS&lt;br /&gt;
! CMS&lt;br /&gt;
! LHCb&lt;br /&gt;
! Observations&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| 2.5 GB RSS&lt;br /&gt;
| x&lt;br /&gt;
| 3,5 GB (défaut CMS 2 GB en RSS)&lt;br /&gt;
| x&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.44 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.31 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.18 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Vision des expériences ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites.&lt;br /&gt;
La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...&lt;br /&gt;
&lt;br /&gt;
===== ALICE =====&lt;br /&gt;
Pas d&#039;etude serieuse menee jusqu&#039;ici, et pas de besoin particulier. &lt;br /&gt;
Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd&#039;hui si ces valeurs sont transitoires ou constantes, d&#039;ou la necessite d&#039;analyser la consommation au fur et a mesure que le job se deroule.&lt;br /&gt;
&lt;br /&gt;
===== ATLAS =====&lt;br /&gt;
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/&lt;br /&gt;
&lt;br /&gt;
- Recommendation: Mémoire 2Go/coeurs:  couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c&#039;est fait mettre limite au moins 3x la mémoire. &lt;br /&gt;
&lt;br /&gt;
-Au niveau de l&#039;envoi des jobs de ATLAS, la sélection du site est fait en fonction de la mémoire demandée ( la mémoire nécessaire n&#039;est pas remplie par l&#039;utilisateur mais &amp;quot;calculée&amp;quot; je sais pas trop comment), donc un job demandant plus de 2 Go de mémoire n&#039;est possible que sur les sites ayant une queue high memory. ATLAS n&#039;insiste pas vraiment pour que les sites mettent à disposition ces queues, ie un petit nombre de site leur suffit. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[image:Memjob_atlas-recommandation.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===== CMS =====&lt;br /&gt;
Depuis le passage au multicore, la mémoire (RSS) est gérée &amp;quot;globalement&amp;quot; au niveau du pilote lui-même qui va essayer d&#039;utiliser au mieux les ressources auxquelles il a accès (mémoire, CPU, disque). Le pilote adaptera ainsi les &amp;quot;types&amp;quot; de jobs (différentes configurations [job x core] possibles) et les payloads exécutés pour optimiser l&#039;utilisation des ressources. Les ressources auxquelles il a accès dépendent du site, et sont configurés &amp;quot;en dur&amp;quot; au niveau des factories. Par défaut, CMS se base sur les demandes de ressources figurant sur la &amp;quot;VO Id card&amp;quot;, mais celles-ci peuvent être modifiées en accord avec le site (c&#039;est par exemple le cas du CC qui fournit plus de mémoire).&lt;br /&gt;
&lt;br /&gt;
CMS recommande de ne poser &#039;&#039;&#039;aucune limitation sur la mémoire&#039;&#039;&#039; (et en particulier sur la VMEM [*]). CMSSW utilise JEMALLOC pour l&#039;allocation mémoire (la mémoire virtuelle est réellement allouée en RAM) mais aussi MADV_DONTNEED pour nettoyer la mémoire des pages non utilisées. Ce qui fait que la VMEM va nécessairement augmenter (et dans certains cas dans des proportions importantes, facteur ~5) alors que la mémoire RSS utilisée restera sous contrôle : stats pour des jobs 1-core obtenues sur 1 semaine : RSS ~1,5 GB, queue de la VMEM ~9,6 GB.&lt;br /&gt;
&lt;br /&gt;
CMS utilise ~2GB par coeur (au 95ème centile pour les jobs de la phase II). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[*] Ne pas empêcher l&#039;overcommit de l&#039;OS : vm.overcommit_memory mis à 0.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pour info, &#039;&#039;&#039;Brian&#039;s wishlist&#039;&#039;&#039; (CMS developer working on AAA/XRootD and HTCondor) :&lt;br /&gt;
* Don&#039;t do any limits based on VSIZE.&lt;br /&gt;
* Don&#039;t enable swap.&lt;br /&gt;
* Do limit memory usage based on cgroups.&lt;br /&gt;
* No particular guidance on hard vs soft limits for cgroups. We have found hard limits are less problematic - seems there are a lot of kernel bugs around the reclaim path.  But that&#039;s a very light suggestion.&lt;br /&gt;
&lt;br /&gt;
===== LHCb =====&lt;br /&gt;
&lt;br /&gt;
=== Besoins des sites ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce qu&#039;il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site.&lt;br /&gt;
Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d&#039;infrastructure matérielle, de documentation, ce que vous n&#039;avez pas et que vous voudriez avoir.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8101</id>
		<title>MemJobs</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8101"/>
		<updated>2017-03-23T09:54:41Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=== Introduction ===&lt;br /&gt;
&lt;br /&gt;
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France.&lt;br /&gt;
Les membres du projet LCG France sont invités à fournir sur cette page tout type d&#039;information permettant au projet d&#039;améliorer la gestion de la mémoire.&lt;br /&gt;
Voici quelques finalités :&lt;br /&gt;
&lt;br /&gt;
* les achats de RAM sont-il adaptés ?&lt;br /&gt;
* les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire&lt;br /&gt;
* des efforts doivent-ils être fournis par les sites pour répondre à d&#039;éventuels problèmes liés à la consommation de mémoire&lt;br /&gt;
* ...&lt;br /&gt;
&lt;br /&gt;
=== Configuration des worker nodes ===&lt;br /&gt;
&lt;br /&gt;
Merci d&#039;indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Système de batch&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! RAM/core&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Limitation mémoire &lt;br /&gt;
sur jobs (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Type de limite&lt;br /&gt;
&lt;br /&gt;
! Seuil (GB)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Dependance &lt;br /&gt;
selon VO (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Informations&lt;br /&gt;
Supplémentaires&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| UGE&lt;br /&gt;
| 3GB&lt;br /&gt;
| Y&lt;br /&gt;
| vmem &amp;amp; rss&lt;br /&gt;
| [3-4] GB RSS&lt;br /&gt;
| Y&lt;br /&gt;
| Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.&lt;br /&gt;
|-&lt;br /&gt;
| CPPM&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2, 2.5, 3 Go (selon wn)&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2Go&lt;br /&gt;
| Y&lt;br /&gt;
| vmem (pvmem)&lt;br /&gt;
| 4Go vmem, 3Go vmem/core (multicore)&lt;br /&gt;
| N&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Consommation des jobs ===&lt;br /&gt;
&lt;br /&gt;
On reporte ici les valeurs typiques de consommation mémoire moyenne &#039;&#039;observée&#039;&#039; sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
! ALICE&lt;br /&gt;
! ATLAS&lt;br /&gt;
! CMS&lt;br /&gt;
! LHCb&lt;br /&gt;
! Observations&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| 2.5 GB RSS&lt;br /&gt;
| x&lt;br /&gt;
| 3,5 GB (défaut CMS 2 GB en RSS)&lt;br /&gt;
| x&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.44 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.31 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.18 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Vision des expériences ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites.&lt;br /&gt;
La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...&lt;br /&gt;
&lt;br /&gt;
===== ALICE =====&lt;br /&gt;
Pas d&#039;etude serieuse menee jusqu&#039;ici, et pas de besoin particulier. &lt;br /&gt;
Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd&#039;hui si ces valeurs sont transitoires ou constantes, d&#039;ou la necessite d&#039;analyser la consommation au fur et a mesure que le job se deroule.&lt;br /&gt;
&lt;br /&gt;
===== ATLAS =====&lt;br /&gt;
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/&lt;br /&gt;
&lt;br /&gt;
- Recommendation: Mémoire 2Go/coeurs:  couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c&#039;est fait mettre limite au moins 3x la mémoire. &lt;br /&gt;
&lt;br /&gt;
-Au niveau de l&#039;envoi des jobs de ATLAS, la sélection du site est fait en fonction de la mémoire demandée ( la mémoire nécessaire n&#039;est pas remplie par l&#039;utilisateur mais &amp;quot;calculée&amp;quot; je sais pas trop comment), donc un job demandant plus de 2 Go de mémoire n&#039;est possible que sur les sites ayant une queue high memory. ATLAS n&#039;insiste pas vraiment pour que les sites mettent à disposition ces queues, ie un petit nombre de site leur suffit. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[image:Memjob_atlas-recommandation.pdf]]&lt;br /&gt;
&lt;br /&gt;
Memory&lt;br /&gt;
● Vmem: memory mapping in 64bit can be several times&lt;br /&gt;
the actual memory used it doesn&#039;t mean it gets used. &lt;br /&gt;
● Smaps RSS: physical memory used by a job double&lt;br /&gt;
counting the memory shared with other jobs &lt;br /&gt;
●&lt;br /&gt;
≠ from cgroups RSS&lt;br /&gt;
● Smaps PSS: physical memory used by a job without&lt;br /&gt;
double counting ✓&lt;br /&gt;
● cgroups RSS: physical memory used by the jobs without&lt;br /&gt;
double counting ✓&lt;br /&gt;
●&lt;br /&gt;
Quantitatively similar smaps PSS&lt;br /&gt;
What batch systems do?&lt;br /&gt;
●&lt;br /&gt;
Batch systems without cgroups&lt;br /&gt;
● See the same RSS as reported in smaps&lt;br /&gt;
● Kill on vmem which is NOT a physical memory measure&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
If you insist on this you need to set it at least 3 times the RAM&lt;br /&gt;
requested by the job&lt;br /&gt;
If you kill with the scheduler it is likely to the same problem&lt;br /&gt;
Sites with cgroups&lt;br /&gt;
● Can setup soft and hard limits on the values the job reports&lt;br /&gt;
● Soft limit allows the kernel to decide if the job can keep on&lt;br /&gt;
using the extra RAM or has to swap&lt;br /&gt;
● Hard limit will kill the job based on RAM&lt;br /&gt;
●&lt;br /&gt;
Often set to 2 or 3 times the RAM requested by the job&lt;br /&gt;
&lt;br /&gt;
===== CMS =====&lt;br /&gt;
Depuis le passage au multicore, la mémoire (RSS) est gérée &amp;quot;globalement&amp;quot; au niveau du pilote lui-même qui va essayer d&#039;utiliser au mieux les ressources auxquelles il a accès (mémoire, CPU, disque). Le pilote adaptera ainsi les &amp;quot;types&amp;quot; de jobs (différentes configurations [job x core] possibles) et les payloads exécutés pour optimiser l&#039;utilisation des ressources. Les ressources auxquelles il a accès dépendent du site, et sont configurés &amp;quot;en dur&amp;quot; au niveau des factories. Par défaut, CMS se base sur les demandes de ressources figurant sur la &amp;quot;VO Id card&amp;quot;, mais celles-ci peuvent être modifiées en accord avec le site (c&#039;est par exemple le cas du CC qui fournit plus de mémoire).&lt;br /&gt;
&lt;br /&gt;
CMS recommande de ne poser &#039;&#039;&#039;aucune limitation sur la mémoire&#039;&#039;&#039; (et en particulier sur la VMEM [*]). CMSSW utilise JEMALLOC pour l&#039;allocation mémoire (la mémoire virtuelle est réellement allouée en RAM) mais aussi MADV_DONTNEED pour nettoyer la mémoire des pages non utilisées. Ce qui fait que la VMEM va nécessairement augmenter (et dans certains cas dans des proportions importantes, facteur ~5) alors que la mémoire RSS utilisée restera sous contrôle : stats pour des jobs 1-core obtenues sur 1 semaine : RSS ~1,5 GB, queue de la VMEM ~9,6 GB.&lt;br /&gt;
&lt;br /&gt;
CMS utilise ~2GB par coeur (au 95ème centile pour les jobs de la phase II). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[*] Ne pas empêcher l&#039;overcommit de l&#039;OS : vm.overcommit_memory mis à 0.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pour info, &#039;&#039;&#039;Brian&#039;s wishlist&#039;&#039;&#039; (CMS developer working on AAA/XRootD and HTCondor) :&lt;br /&gt;
* Don&#039;t do any limits based on VSIZE.&lt;br /&gt;
* Don&#039;t enable swap.&lt;br /&gt;
* Do limit memory usage based on cgroups.&lt;br /&gt;
* No particular guidance on hard vs soft limits for cgroups. We have found hard limits are less problematic - seems there are a lot of kernel bugs around the reclaim path.  But that&#039;s a very light suggestion.&lt;br /&gt;
&lt;br /&gt;
===== LHCb =====&lt;br /&gt;
&lt;br /&gt;
=== Besoins des sites ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce qu&#039;il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site.&lt;br /&gt;
Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d&#039;infrastructure matérielle, de documentation, ce que vous n&#039;avez pas et que vous voudriez avoir.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8099</id>
		<title>MemJobs</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8099"/>
		<updated>2017-03-23T09:51:50Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=== Introduction ===&lt;br /&gt;
&lt;br /&gt;
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France.&lt;br /&gt;
Les membres du projet LCG France sont invités à fournir sur cette page tout type d&#039;information permettant au projet d&#039;améliorer la gestion de la mémoire.&lt;br /&gt;
Voici quelques finalités :&lt;br /&gt;
&lt;br /&gt;
* les achats de RAM sont-il adaptés ?&lt;br /&gt;
* les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire&lt;br /&gt;
* des efforts doivent-ils être fournis par les sites pour répondre à d&#039;éventuels problèmes liés à la consommation de mémoire&lt;br /&gt;
* ...&lt;br /&gt;
&lt;br /&gt;
=== Configuration des worker nodes ===&lt;br /&gt;
&lt;br /&gt;
Merci d&#039;indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Système de batch&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! RAM/core&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Limitation mémoire &lt;br /&gt;
sur jobs (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Type de limite&lt;br /&gt;
&lt;br /&gt;
! Seuil (GB)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Dependance &lt;br /&gt;
selon VO (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Informations&lt;br /&gt;
Supplémentaires&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| UGE&lt;br /&gt;
| 3GB&lt;br /&gt;
| Y&lt;br /&gt;
| vmem &amp;amp; rss&lt;br /&gt;
| [3-4] GB RSS&lt;br /&gt;
| Y&lt;br /&gt;
| Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.&lt;br /&gt;
|-&lt;br /&gt;
| CPPM&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2, 2.5, 3 Go (selon wn)&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2Go&lt;br /&gt;
| Y&lt;br /&gt;
| vmem (pvmem)&lt;br /&gt;
| 4Go vmem, 3Go vmem/core (multicore)&lt;br /&gt;
| N&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Consommation des jobs ===&lt;br /&gt;
&lt;br /&gt;
On reporte ici les valeurs typiques de consommation mémoire moyenne &#039;&#039;observée&#039;&#039; sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
! ALICE&lt;br /&gt;
! ATLAS&lt;br /&gt;
! CMS&lt;br /&gt;
! LHCb&lt;br /&gt;
! Observations&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3,5 GB (défaut CMS 2 GB en RSS)&lt;br /&gt;
| x&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.44 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.31 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.18 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Vision des expériences ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites.&lt;br /&gt;
La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...&lt;br /&gt;
&lt;br /&gt;
===== ALICE =====&lt;br /&gt;
Pas d&#039;etude serieuse menee jusqu&#039;ici, et pas de besoin particulier. &lt;br /&gt;
Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd&#039;hui si ces valeurs sont transitoires ou constantes, d&#039;ou la necessite d&#039;analyser la consommation au fur et a mesure que le job se deroule.&lt;br /&gt;
&lt;br /&gt;
===== ATLAS =====&lt;br /&gt;
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/&lt;br /&gt;
&lt;br /&gt;
- Recommendation: Mémoire 2Go/coeurs:  couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c&#039;est fait mettre limite au moins 3x la mémoire. &lt;br /&gt;
&lt;br /&gt;
-Au niveau de l&#039;envoi des jobs de ATLAS, la sélection du site est fait en fonction de la mémoire demandée ( la mémoire nécessaire n&#039;est pas remplie par l&#039;utilisateur mais &amp;quot;calculée&amp;quot; je sais pas trop comment), donc un job demandant plus de 2 Go de mémoire n&#039;est possible que sur les sites ayant une queue high memory. ATLAS n&#039;insiste pas vraiment pour que les sites mettent à disposition ces queues, ie un petit nombre de site leur suffit. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[image:Memjob_atlas-recommandation.pdf]&lt;br /&gt;
&lt;br /&gt;
Memory&lt;br /&gt;
● Vmem: memory mapping in 64bit can be several times&lt;br /&gt;
the actual memory used it doesn&#039;t mean it gets used. &lt;br /&gt;
● Smaps RSS: physical memory used by a job double&lt;br /&gt;
counting the memory shared with other jobs &lt;br /&gt;
●&lt;br /&gt;
≠ from cgroups RSS&lt;br /&gt;
● Smaps PSS: physical memory used by a job without&lt;br /&gt;
double counting ✓&lt;br /&gt;
● cgroups RSS: physical memory used by the jobs without&lt;br /&gt;
double counting ✓&lt;br /&gt;
●&lt;br /&gt;
Quantitatively similar smaps PSS&lt;br /&gt;
What batch systems do?&lt;br /&gt;
●&lt;br /&gt;
Batch systems without cgroups&lt;br /&gt;
● See the same RSS as reported in smaps&lt;br /&gt;
● Kill on vmem which is NOT a physical memory measure&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
If you insist on this you need to set it at least 3 times the RAM&lt;br /&gt;
requested by the job&lt;br /&gt;
If you kill with the scheduler it is likely to the same problem&lt;br /&gt;
Sites with cgroups&lt;br /&gt;
● Can setup soft and hard limits on the values the job reports&lt;br /&gt;
● Soft limit allows the kernel to decide if the job can keep on&lt;br /&gt;
using the extra RAM or has to swap&lt;br /&gt;
● Hard limit will kill the job based on RAM&lt;br /&gt;
●&lt;br /&gt;
Often set to 2 or 3 times the RAM requested by the job&lt;br /&gt;
&lt;br /&gt;
===== CMS =====&lt;br /&gt;
Depuis le passage au multicore, la mémoire (RSS) est gérée &amp;quot;globalement&amp;quot; au niveau du pilote lui-même qui va essayer d&#039;utiliser au mieux les ressources auxquelles il a accès (mémoire, CPU, disque). Le pilote adaptera ainsi les &amp;quot;types&amp;quot; de jobs (différentes configurations [job x core] possibles) et les payloads exécutés pour optimiser l&#039;utilisation des ressources. Les ressources auxquelles il a accès dépendent du site, et sont configurés &amp;quot;en dur&amp;quot; au niveau des factories. Par défaut, CMS se base sur les demandes de ressources figurant sur la &amp;quot;VO Id card&amp;quot;, mais celles-ci peuvent être modifiées en accord avec le site (c&#039;est par exemple le cas du CC qui fournit plus de mémoire).&lt;br /&gt;
&lt;br /&gt;
CMS recommande de ne poser &#039;&#039;&#039;aucune limitation sur la mémoire&#039;&#039;&#039; (et en particulier sur la VMEM [*]). CMSSW utilise JEMALLOC pour l&#039;allocation mémoire (la mémoire virtuelle est réellement allouée en RAM) mais aussi MADV_DONTNEED pour nettoyer la mémoire des pages non utilisées. Ce qui fait que la VMEM va nécessairement augmenter (et dans certains cas dans des proportions importantes, facteur ~5) alors que la mémoire RSS utilisée restera sous contrôle : stats pour des jobs 1-core obtenues sur 1 semaine : RSS ~1,5 GB, queue de la VMEM ~9,6 GB.&lt;br /&gt;
&lt;br /&gt;
CMS utilise ~2GB par coeur (au 95ème centile pour les jobs de la phase II). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[*] Ne pas empêcher l&#039;overcommit de l&#039;OS : vm.overcommit_memory mis à 0.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pour info, &#039;&#039;&#039;Brian&#039;s wishlist&#039;&#039;&#039; (CMS developer working on AAA/XRootD and HTCondor) :&lt;br /&gt;
* Don&#039;t do any limits based on VSIZE.&lt;br /&gt;
* Don&#039;t enable swap.&lt;br /&gt;
* Do limit memory usage based on cgroups.&lt;br /&gt;
* No particular guidance on hard vs soft limits for cgroups. We have found hard limits are less problematic - seems there are a lot of kernel bugs around the reclaim path.  But that&#039;s a very light suggestion.&lt;br /&gt;
&lt;br /&gt;
===== LHCb =====&lt;br /&gt;
&lt;br /&gt;
=== Besoins des sites ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce qu&#039;il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site.&lt;br /&gt;
Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d&#039;infrastructure matérielle, de documentation, ce que vous n&#039;avez pas et que vous voudriez avoir.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8098</id>
		<title>MemJobs</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8098"/>
		<updated>2017-03-23T09:50:42Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=== Introduction ===&lt;br /&gt;
&lt;br /&gt;
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France.&lt;br /&gt;
Les membres du projet LCG France sont invités à fournir sur cette page tout type d&#039;information permettant au projet d&#039;améliorer la gestion de la mémoire.&lt;br /&gt;
Voici quelques finalités :&lt;br /&gt;
&lt;br /&gt;
* les achats de RAM sont-il adaptés ?&lt;br /&gt;
* les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire&lt;br /&gt;
* des efforts doivent-ils être fournis par les sites pour répondre à d&#039;éventuels problèmes liés à la consommation de mémoire&lt;br /&gt;
* ...&lt;br /&gt;
&lt;br /&gt;
=== Configuration des worker nodes ===&lt;br /&gt;
&lt;br /&gt;
Merci d&#039;indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Système de batch&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! RAM/core&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Limitation mémoire &lt;br /&gt;
sur jobs (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Type de limite&lt;br /&gt;
&lt;br /&gt;
! Seuil (GB)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Dependance &lt;br /&gt;
selon VO (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Informations&lt;br /&gt;
Supplémentaires&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| UGE&lt;br /&gt;
| 3GB&lt;br /&gt;
| Y&lt;br /&gt;
| vmem &amp;amp; rss&lt;br /&gt;
| [3-4] GB RSS&lt;br /&gt;
| Y&lt;br /&gt;
| Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.&lt;br /&gt;
|-&lt;br /&gt;
| CPPM&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2, 2.5, 3 Go (selon wn)&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2Go&lt;br /&gt;
| Y&lt;br /&gt;
| vmem (pvmem)&lt;br /&gt;
| 4Go vmem, 3Go vmem/core (multicore)&lt;br /&gt;
| N&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Consommation des jobs ===&lt;br /&gt;
&lt;br /&gt;
On reporte ici les valeurs typiques de consommation mémoire moyenne &#039;&#039;observée&#039;&#039; sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
! ALICE&lt;br /&gt;
! ATLAS&lt;br /&gt;
! CMS&lt;br /&gt;
! LHCb&lt;br /&gt;
! Observations&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3,5 GB (défaut CMS 2 GB en RSS)&lt;br /&gt;
| x&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.44 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.31 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.18 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Vision des expériences ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites.&lt;br /&gt;
La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...&lt;br /&gt;
&lt;br /&gt;
===== ALICE =====&lt;br /&gt;
Pas d&#039;etude serieuse menee jusqu&#039;ici, et pas de besoin particulier. &lt;br /&gt;
Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd&#039;hui si ces valeurs sont transitoires ou constantes, d&#039;ou la necessite d&#039;analyser la consommation au fur et a mesure que le job se deroule.&lt;br /&gt;
&lt;br /&gt;
===== ATLAS =====&lt;br /&gt;
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/&lt;br /&gt;
&lt;br /&gt;
- Recommendation: Mémoire 2Go/coeurs:  couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c&#039;est fait mettre limite au moins 3x la mémoire. &lt;br /&gt;
&lt;br /&gt;
-Au niveau de l&#039;envoi des jobs de ATLAS, la sélection du site est fait en fonction de la mémoire demandée ( la mémoire nécessaire n&#039;est pas remplie par l&#039;utilisateur mais &amp;quot;calculée&amp;quot; je sais pas trop comment), donc un job demandant plus de 2 Go de mémoire n&#039;est possible que sur les sites ayant une queue high memory. ATLAS n&#039;insiste pas vraiment pour que les sites mettent à disposition ces queues, ie un petit nombre de site leur suffit. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[image:Memjob_Atlas-recommandation.pdf]&lt;br /&gt;
&lt;br /&gt;
Memory&lt;br /&gt;
● Vmem: memory mapping in 64bit can be several times&lt;br /&gt;
the actual memory used it doesn&#039;t mean it gets used. &lt;br /&gt;
● Smaps RSS: physical memory used by a job double&lt;br /&gt;
counting the memory shared with other jobs &lt;br /&gt;
●&lt;br /&gt;
≠ from cgroups RSS&lt;br /&gt;
● Smaps PSS: physical memory used by a job without&lt;br /&gt;
double counting ✓&lt;br /&gt;
● cgroups RSS: physical memory used by the jobs without&lt;br /&gt;
double counting ✓&lt;br /&gt;
●&lt;br /&gt;
Quantitatively similar smaps PSS&lt;br /&gt;
What batch systems do?&lt;br /&gt;
●&lt;br /&gt;
Batch systems without cgroups&lt;br /&gt;
● See the same RSS as reported in smaps&lt;br /&gt;
● Kill on vmem which is NOT a physical memory measure&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
If you insist on this you need to set it at least 3 times the RAM&lt;br /&gt;
requested by the job&lt;br /&gt;
If you kill with the scheduler it is likely to the same problem&lt;br /&gt;
Sites with cgroups&lt;br /&gt;
● Can setup soft and hard limits on the values the job reports&lt;br /&gt;
● Soft limit allows the kernel to decide if the job can keep on&lt;br /&gt;
using the extra RAM or has to swap&lt;br /&gt;
● Hard limit will kill the job based on RAM&lt;br /&gt;
●&lt;br /&gt;
Often set to 2 or 3 times the RAM requested by the job&lt;br /&gt;
&lt;br /&gt;
===== CMS =====&lt;br /&gt;
Depuis le passage au multicore, la mémoire (RSS) est gérée &amp;quot;globalement&amp;quot; au niveau du pilote lui-même qui va essayer d&#039;utiliser au mieux les ressources auxquelles il a accès (mémoire, CPU, disque). Le pilote adaptera ainsi les &amp;quot;types&amp;quot; de jobs (différentes configurations [job x core] possibles) et les payloads exécutés pour optimiser l&#039;utilisation des ressources. Les ressources auxquelles il a accès dépendent du site, et sont configurés &amp;quot;en dur&amp;quot; au niveau des factories. Par défaut, CMS se base sur les demandes de ressources figurant sur la &amp;quot;VO Id card&amp;quot;, mais celles-ci peuvent être modifiées en accord avec le site (c&#039;est par exemple le cas du CC qui fournit plus de mémoire).&lt;br /&gt;
&lt;br /&gt;
CMS recommande de ne poser &#039;&#039;&#039;aucune limitation sur la mémoire&#039;&#039;&#039; (et en particulier sur la VMEM [*]). CMSSW utilise JEMALLOC pour l&#039;allocation mémoire (la mémoire virtuelle est réellement allouée en RAM) mais aussi MADV_DONTNEED pour nettoyer la mémoire des pages non utilisées. Ce qui fait que la VMEM va nécessairement augmenter (et dans certains cas dans des proportions importantes, facteur ~5) alors que la mémoire RSS utilisée restera sous contrôle : stats pour des jobs 1-core obtenues sur 1 semaine : RSS ~1,5 GB, queue de la VMEM ~9,6 GB.&lt;br /&gt;
&lt;br /&gt;
CMS utilise ~2GB par coeur (au 95ème centile pour les jobs de la phase II). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[*] Ne pas empêcher l&#039;overcommit de l&#039;OS : vm.overcommit_memory mis à 0.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pour info, &#039;&#039;&#039;Brian&#039;s wishlist&#039;&#039;&#039; (CMS developer working on AAA/XRootD and HTCondor) :&lt;br /&gt;
* Don&#039;t do any limits based on VSIZE.&lt;br /&gt;
* Don&#039;t enable swap.&lt;br /&gt;
* Do limit memory usage based on cgroups.&lt;br /&gt;
* No particular guidance on hard vs soft limits for cgroups. We have found hard limits are less problematic - seems there are a lot of kernel bugs around the reclaim path.  But that&#039;s a very light suggestion.&lt;br /&gt;
&lt;br /&gt;
===== LHCb =====&lt;br /&gt;
&lt;br /&gt;
=== Besoins des sites ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce qu&#039;il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site.&lt;br /&gt;
Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d&#039;infrastructure matérielle, de documentation, ce que vous n&#039;avez pas et que vous voudriez avoir.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=File:Memjob_atlas-recommandation.pdf&amp;diff=8097</id>
		<title>File:Memjob atlas-recommandation.pdf</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=File:Memjob_atlas-recommandation.pdf&amp;diff=8097"/>
		<updated>2017-03-23T09:47:07Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8089</id>
		<title>MemJobs</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8089"/>
		<updated>2017-03-22T14:12:18Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=== Introduction ===&lt;br /&gt;
&lt;br /&gt;
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France.&lt;br /&gt;
Les membres du projet LCG France sont invités à fournir sur cette page tout type d&#039;information permettant au projet d&#039;améliorer la gestion de la mémoire.&lt;br /&gt;
Voici quelques finalités :&lt;br /&gt;
&lt;br /&gt;
* les achats de RAM sont-il adaptés ?&lt;br /&gt;
* les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire&lt;br /&gt;
* des efforts doivent-ils être fournis par les sites pour répondre à d&#039;éventuels problèmes liés à la consommation de mémoire&lt;br /&gt;
* ...&lt;br /&gt;
&lt;br /&gt;
=== Configuration des worker nodes ===&lt;br /&gt;
&lt;br /&gt;
Merci d&#039;indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Système de batch&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! RAM/core&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Limitation mémoire &lt;br /&gt;
sur jobs (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Type de limite&lt;br /&gt;
&lt;br /&gt;
! Seuil (GB)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Dependance &lt;br /&gt;
selon VO (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Informations&lt;br /&gt;
Supplémentaires&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| UGE&lt;br /&gt;
| 3GB&lt;br /&gt;
| Y&lt;br /&gt;
| vmem &amp;amp; rss&lt;br /&gt;
| [3-4] GB RSS&lt;br /&gt;
| Y&lt;br /&gt;
| Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.&lt;br /&gt;
|-&lt;br /&gt;
| CPPM&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2, 2.5, 3 Go (selon wn)&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2Go&lt;br /&gt;
| Y&lt;br /&gt;
| vmem (pvmem)&lt;br /&gt;
| 4Go vmem, 3Go vmem/core (multicore)&lt;br /&gt;
| N&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Consommation des jobs ===&lt;br /&gt;
&lt;br /&gt;
On reporte ici les valeurs typiques de consommation mémoire moyenne &#039;&#039;observée&#039;&#039; sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
! ALICE&lt;br /&gt;
! ATLAS&lt;br /&gt;
! CMS&lt;br /&gt;
! LHCb&lt;br /&gt;
! Observations&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3,5 GB (défaut CMS 2 GB en RSS)&lt;br /&gt;
| x&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.44 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.31 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.18 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Vision des expériences ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites.&lt;br /&gt;
La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...&lt;br /&gt;
&lt;br /&gt;
===== ALICE =====&lt;br /&gt;
Pas d&#039;etude serieuse menee jusqu&#039;ici, et pas de besoin particulier. &lt;br /&gt;
Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd&#039;hui si ces valeurs sont transitoires ou constantes, d&#039;ou la necessite d&#039;analyser la consommation au fur et a mesure que le job se deroule.&lt;br /&gt;
&lt;br /&gt;
===== ATLAS =====&lt;br /&gt;
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/&lt;br /&gt;
&lt;br /&gt;
- Recommendation: Mémoire 2Go/coeurs:  couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c&#039;est fait mettre limite au moins 3x la mémoire. &lt;br /&gt;
&lt;br /&gt;
-Au niveau de l&#039;envoi des jobs de ATLAS, la sélection du site est fait en fonction de la mémoire demandée ( la mémoire nécessaire n&#039;est pas remplie par l&#039;utilisateur mais &amp;quot;calculée&amp;quot; je sais pas trop comment), donc un job demandant plus de 2 Go de mémoire n&#039;est possible que sur les sites ayant une queue high memory. ATLAS n&#039;insiste pas vraiment pour que les sites mettent à disposition ces queues, ie un petit nombre de site leur suffit. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Memory&lt;br /&gt;
● Vmem: memory mapping in 64bit can be several times&lt;br /&gt;
the actual memory used it doesn&#039;t mean it gets used. &lt;br /&gt;
● Smaps RSS: physical memory used by a job double&lt;br /&gt;
counting the memory shared with other jobs &lt;br /&gt;
●&lt;br /&gt;
≠ from cgroups RSS&lt;br /&gt;
● Smaps PSS: physical memory used by a job without&lt;br /&gt;
double counting ✓&lt;br /&gt;
● cgroups RSS: physical memory used by the jobs without&lt;br /&gt;
double counting ✓&lt;br /&gt;
●&lt;br /&gt;
Quantitatively similar smaps PSS&lt;br /&gt;
What batch systems do?&lt;br /&gt;
●&lt;br /&gt;
Batch systems without cgroups&lt;br /&gt;
● See the same RSS as reported in smaps&lt;br /&gt;
● Kill on vmem which is NOT a physical memory measure&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
If you insist on this you need to set it at least 3 times the RAM&lt;br /&gt;
requested by the job&lt;br /&gt;
If you kill with the scheduler it is likely to the same problem&lt;br /&gt;
Sites with cgroups&lt;br /&gt;
● Can setup soft and hard limits on the values the job reports&lt;br /&gt;
● Soft limit allows the kernel to decide if the job can keep on&lt;br /&gt;
using the extra RAM or has to swap&lt;br /&gt;
● Hard limit will kill the job based on RAM&lt;br /&gt;
●&lt;br /&gt;
Often set to 2 or 3 times the RAM requested by the job&lt;br /&gt;
&lt;br /&gt;
===== CMS =====&lt;br /&gt;
Depuis le passage au multicore, la mémoire (RSS) est gérée &amp;quot;globalement&amp;quot; au niveau du pilote lui-même qui va essayer d&#039;utiliser au mieux les ressources auxquelles il a accès (mémoire, CPU, disque). Le pilote adaptera ainsi les &amp;quot;types&amp;quot; de jobs (différentes configurations [job x core] possibles) et les payloads exécutés pour optimiser l&#039;utilisation des ressources. Les ressources auxquelles il a accès dépendent du site, et sont configurés &amp;quot;en dur&amp;quot; au niveau des factories. Par défaut, CMS se base sur les demandes de ressources figurant sur la &amp;quot;VO Id card&amp;quot;, mais celles-ci peuvent être modifiées en accord avec le site (c&#039;est par exemple le cas du CC qui fournit plus de mémoire).&lt;br /&gt;
&lt;br /&gt;
===== LHCb =====&lt;br /&gt;
&lt;br /&gt;
=== Besoins des sites ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce qu&#039;il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site.&lt;br /&gt;
Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d&#039;infrastructure matérielle, de documentation, ce que vous n&#039;avez pas et que vous voudriez avoir.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8086</id>
		<title>MemJobs</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8086"/>
		<updated>2017-03-22T09:54:33Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=== Introduction ===&lt;br /&gt;
&lt;br /&gt;
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France.&lt;br /&gt;
Les membres du projet LCG France sont invités à fournir sur cette page tout type d&#039;information permettant au projet d&#039;améliorer la gestion de la mémoire.&lt;br /&gt;
Voici quelques finalités :&lt;br /&gt;
&lt;br /&gt;
* les achats de RAM sont-il adaptés ?&lt;br /&gt;
* les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire&lt;br /&gt;
* des efforts doivent-ils être fournis par les sites pour répondre à d&#039;éventuels problèmes liés à la consommation de mémoire&lt;br /&gt;
* ...&lt;br /&gt;
&lt;br /&gt;
=== Configuration des worker nodes ===&lt;br /&gt;
&lt;br /&gt;
Merci d&#039;indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Système de batch&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! RAM/core&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Limitation mémoire &lt;br /&gt;
sur jobs (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Type de limite&lt;br /&gt;
&lt;br /&gt;
! Seuil (GB)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Dependance &lt;br /&gt;
selon VO (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Informations&lt;br /&gt;
Supplémentaires&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| UGE&lt;br /&gt;
| 3GB&lt;br /&gt;
| Y&lt;br /&gt;
| vmem &amp;amp; rss&lt;br /&gt;
| [3-4] GB RSS&lt;br /&gt;
| Y&lt;br /&gt;
| Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.&lt;br /&gt;
|-&lt;br /&gt;
| CPPM&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2, 2.5, 3 Go (selon wn)&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2Go&lt;br /&gt;
| Y&lt;br /&gt;
| vmem (pvmem)&lt;br /&gt;
| 4Go vmem, 3Go vmem/core (multicore)&lt;br /&gt;
| N&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Consommation des jobs ===&lt;br /&gt;
&lt;br /&gt;
On reporte ici les valeurs typiques de consommation mémoire moyenne &#039;&#039;observée&#039;&#039; sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
! ALICE&lt;br /&gt;
! ATLAS&lt;br /&gt;
! CMS&lt;br /&gt;
! LHCb&lt;br /&gt;
! Observations&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.44 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.31 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.18 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Vision des expériences ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites.&lt;br /&gt;
La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...&lt;br /&gt;
&lt;br /&gt;
===== ALICE =====&lt;br /&gt;
Pas d&#039;etude serieuse menee jusqu&#039;ici, et pas de besoin particulier. &lt;br /&gt;
Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd&#039;hui si ces valeurs sont transitoires ou constantes, d&#039;ou la necessite d&#039;analyser la consommation au fur et a mesure que le job se deroule.&lt;br /&gt;
&lt;br /&gt;
===== ATLAS =====&lt;br /&gt;
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/&lt;br /&gt;
&lt;br /&gt;
Recommendation: Mémoire 2Go/coeurs:  couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c&#039;est fait mettre limite au moins 3x la mémoire. &lt;br /&gt;
&lt;br /&gt;
Memory&lt;br /&gt;
● Vmem: memory mapping in 64bit can be several times&lt;br /&gt;
the actual memory used it doesn&#039;t mean it gets used. &lt;br /&gt;
● Smaps RSS: physical memory used by a job double&lt;br /&gt;
counting the memory shared with other jobs &lt;br /&gt;
●&lt;br /&gt;
≠ from cgroups RSS&lt;br /&gt;
● Smaps PSS: physical memory used by a job without&lt;br /&gt;
double counting ✓&lt;br /&gt;
● cgroups RSS: physical memory used by the jobs without&lt;br /&gt;
double counting ✓&lt;br /&gt;
●&lt;br /&gt;
Quantitatively similar smaps PSS&lt;br /&gt;
What batch systems do?&lt;br /&gt;
●&lt;br /&gt;
Batch systems without cgroups&lt;br /&gt;
● See the same RSS as reported in smaps&lt;br /&gt;
● Kill on vmem which is NOT a physical memory measure&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
If you insist on this you need to set it at least 3 times the RAM&lt;br /&gt;
requested by the job&lt;br /&gt;
If you kill with the scheduler it is likely to the same problem&lt;br /&gt;
Sites with cgroups&lt;br /&gt;
● Can setup soft and hard limits on the values the job reports&lt;br /&gt;
● Soft limit allows the kernel to decide if the job can keep on&lt;br /&gt;
using the extra RAM or has to swap&lt;br /&gt;
● Hard limit will kill the job based on RAM&lt;br /&gt;
●&lt;br /&gt;
Often set to 2 or 3 times the RAM requested by the job&lt;br /&gt;
&lt;br /&gt;
===== CMS =====&lt;br /&gt;
&lt;br /&gt;
===== LHCb =====&lt;br /&gt;
&lt;br /&gt;
=== Besoins des sites ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce qu&#039;il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site.&lt;br /&gt;
Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d&#039;infrastructure matérielle, de documentation, ce que vous n&#039;avez pas et que vous voudriez avoir.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8085</id>
		<title>MemJobs</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8085"/>
		<updated>2017-03-22T09:39:00Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=== Introduction ===&lt;br /&gt;
&lt;br /&gt;
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France.&lt;br /&gt;
Les membres du projet LCG France sont invités à fournir sur cette page tout type d&#039;information permettant au projet d&#039;améliorer la gestion de la mémoire.&lt;br /&gt;
Voici quelques finalités :&lt;br /&gt;
&lt;br /&gt;
* les achats de RAM sont-il adaptés ?&lt;br /&gt;
* les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire&lt;br /&gt;
* des efforts doivent-ils être fournis par les sites pour répondre à d&#039;éventuels problèmes liés à la consommation de mémoire&lt;br /&gt;
* ...&lt;br /&gt;
&lt;br /&gt;
=== Configuration des worker nodes ===&lt;br /&gt;
&lt;br /&gt;
Merci d&#039;indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Système de batch&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! RAM/core&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Limitation mémoire &lt;br /&gt;
sur jobs (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Type de limite&lt;br /&gt;
&lt;br /&gt;
! Seuil (GB)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Dependance &lt;br /&gt;
selon VO (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Informations&lt;br /&gt;
Supplémentaires&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| UGE&lt;br /&gt;
| 3GB&lt;br /&gt;
| Y&lt;br /&gt;
| vmem &amp;amp; rss&lt;br /&gt;
| [3-4] GB RSS&lt;br /&gt;
| Y&lt;br /&gt;
| Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.&lt;br /&gt;
|-&lt;br /&gt;
| CPPM&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2, 2.5, 3 Go (selon wn)&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2Go&lt;br /&gt;
| Y&lt;br /&gt;
| vmem (pvmem)&lt;br /&gt;
| 4Go vmem, 3Go vmem/core (multicore)&lt;br /&gt;
| N&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Consommation des jobs ===&lt;br /&gt;
&lt;br /&gt;
On reporte ici les valeurs typiques de consommation mémoire moyenne &#039;&#039;observée&#039;&#039; sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
! ALICE&lt;br /&gt;
! ATLAS&lt;br /&gt;
! CMS&lt;br /&gt;
! LHCb&lt;br /&gt;
! Observations&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.44 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.31 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.18 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Vision des expériences ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites.&lt;br /&gt;
La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...&lt;br /&gt;
&lt;br /&gt;
===== ALICE =====&lt;br /&gt;
Pas d&#039;etude serieuse menee jusqu&#039;ici, et pas de besoin particulier. &lt;br /&gt;
Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd&#039;hui si ces valeurs sont transitoires ou constantes, d&#039;ou la necessite d&#039;analyser la consommation au fur et a mesure que le job se deroule.&lt;br /&gt;
&lt;br /&gt;
===== ATLAS =====&lt;br /&gt;
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/&lt;br /&gt;
&lt;br /&gt;
Recommendation:  couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c&#039;est fait mettre limite au moins 3x la mémoire. &lt;br /&gt;
&lt;br /&gt;
Memory&lt;br /&gt;
● Vmem: memory mapping in 64bit can be several times&lt;br /&gt;
the actual memory used it doesn&#039;t mean it gets used. &lt;br /&gt;
● Smaps RSS: physical memory used by a job double&lt;br /&gt;
counting the memory shared with other jobs &lt;br /&gt;
●&lt;br /&gt;
≠ from cgroups RSS&lt;br /&gt;
● Smaps PSS: physical memory used by a job without&lt;br /&gt;
double counting ✓&lt;br /&gt;
● cgroups RSS: physical memory used by the jobs without&lt;br /&gt;
double counting ✓&lt;br /&gt;
●&lt;br /&gt;
Quantitatively similar smaps PSS&lt;br /&gt;
What batch systems do?&lt;br /&gt;
●&lt;br /&gt;
Batch systems without cgroups&lt;br /&gt;
● See the same RSS as reported in smaps&lt;br /&gt;
● Kill on vmem which is NOT a physical memory measure&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
If you insist on this you need to set it at least 3 times the RAM&lt;br /&gt;
requested by the job&lt;br /&gt;
If you kill with the scheduler it is likely to the same problem&lt;br /&gt;
Sites with cgroups&lt;br /&gt;
● Can setup soft and hard limits on the values the job reports&lt;br /&gt;
● Soft limit allows the kernel to decide if the job can keep on&lt;br /&gt;
using the extra RAM or has to swap&lt;br /&gt;
● Hard limit will kill the job based on RAM&lt;br /&gt;
●&lt;br /&gt;
Often set to 2 or 3 times the RAM requested by the job&lt;br /&gt;
&lt;br /&gt;
===== CMS =====&lt;br /&gt;
&lt;br /&gt;
===== LHCb =====&lt;br /&gt;
&lt;br /&gt;
=== Besoins des sites ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce qu&#039;il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site.&lt;br /&gt;
Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d&#039;infrastructure matérielle, de documentation, ce que vous n&#039;avez pas et que vous voudriez avoir.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8084</id>
		<title>MemJobs</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8084"/>
		<updated>2017-03-22T09:36:30Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* ATLAS */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=== Introduction ===&lt;br /&gt;
&lt;br /&gt;
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France.&lt;br /&gt;
Les membres du projet LCG France sont invités à fournir sur cette page tout type d&#039;information permettant au projet d&#039;améliorer la gestion de la mémoire.&lt;br /&gt;
Voici quelques finalités :&lt;br /&gt;
&lt;br /&gt;
* les achats de RAM sont-il adaptés ?&lt;br /&gt;
* les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire&lt;br /&gt;
* des efforts doivent-ils être fournis par les sites pour répondre à d&#039;éventuels problèmes liés à la consommation de mémoire&lt;br /&gt;
* ...&lt;br /&gt;
&lt;br /&gt;
=== Configuration des worker nodes ===&lt;br /&gt;
&lt;br /&gt;
Merci d&#039;indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Système de batch&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! RAM/core&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Limitation mémoire &lt;br /&gt;
sur jobs (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Type de limite&lt;br /&gt;
&lt;br /&gt;
! Seuil (GB)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Dependance &lt;br /&gt;
selon VO (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Informations&lt;br /&gt;
Supplémentaires&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| UGE&lt;br /&gt;
| 3GB&lt;br /&gt;
| Y&lt;br /&gt;
| vmem &amp;amp; rss&lt;br /&gt;
| [3-4] GB RSS&lt;br /&gt;
| Y&lt;br /&gt;
| Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.&lt;br /&gt;
|-&lt;br /&gt;
| CPPM&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2, 2.5, 3 Go (selon wn)&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2Go&lt;br /&gt;
| Y&lt;br /&gt;
| vmem (pvmem)&lt;br /&gt;
| 4Go vmem, 3Go vmem/core (multicore)&lt;br /&gt;
| N&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Consommation des jobs ===&lt;br /&gt;
&lt;br /&gt;
On reporte ici les valeurs typiques de consommation mémoire moyenne &#039;&#039;observée&#039;&#039; sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
! ALICE&lt;br /&gt;
! ATLAS&lt;br /&gt;
! CMS&lt;br /&gt;
! LHCb&lt;br /&gt;
! Observations&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.44 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.31 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.18 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Vision des expériences ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites.&lt;br /&gt;
La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...&lt;br /&gt;
&lt;br /&gt;
===== ALICE =====&lt;br /&gt;
Pas d&#039;etude serieuse menee jusqu&#039;ici, et pas de besoin particulier. &lt;br /&gt;
Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd&#039;hui si ces valeurs sont transitoires ou constantes, d&#039;ou la necessite d&#039;analyser la consommation au fur et a mesure que le job se deroule.&lt;br /&gt;
&lt;br /&gt;
===== ATLAS =====&lt;br /&gt;
Selon talk jamboree 2017 Alessandra Forti. https://indico.cern.ch/event/579473/&lt;br /&gt;
&lt;br /&gt;
recommendation couper sur smaps PSS ou cgroups RSS, couper sur vmem est déconseillé mais si c&#039;st fait au moins 3x la mémoire. &lt;br /&gt;
&lt;br /&gt;
Memory&lt;br /&gt;
● Vmem: memory mapping in 64bit can be several times&lt;br /&gt;
the actual memory used it doesn&#039;t mean it gets used. &lt;br /&gt;
● Smaps RSS: physical memory used by a job double&lt;br /&gt;
counting the memory shared with other jobs &lt;br /&gt;
●&lt;br /&gt;
≠ from cgroups RSS&lt;br /&gt;
● Smaps PSS: physical memory used by a job without&lt;br /&gt;
double counting ✓&lt;br /&gt;
● cgroups RSS: physical memory used by the jobs without&lt;br /&gt;
double counting ✓&lt;br /&gt;
●&lt;br /&gt;
Quantitatively similar smaps PSS&lt;br /&gt;
What batch systems do?&lt;br /&gt;
●&lt;br /&gt;
Batch systems without cgroups&lt;br /&gt;
● See the same RSS as reported in smaps&lt;br /&gt;
● Kill on vmem which is NOT a physical memory measure&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
●&lt;br /&gt;
If you insist on this you need to set it at least 3 times the RAM&lt;br /&gt;
requested by the job&lt;br /&gt;
If you kill with the scheduler it is likely to the same problem&lt;br /&gt;
Sites with cgroups&lt;br /&gt;
● Can setup soft and hard limits on the values the job reports&lt;br /&gt;
● Soft limit allows the kernel to decide if the job can keep on&lt;br /&gt;
using the extra RAM or has to swap&lt;br /&gt;
● Hard limit will kill the job based on RAM&lt;br /&gt;
●&lt;br /&gt;
Often set to 2 or 3 times the RAM requested by the job&lt;br /&gt;
&lt;br /&gt;
===== CMS =====&lt;br /&gt;
&lt;br /&gt;
===== LHCb =====&lt;br /&gt;
&lt;br /&gt;
=== Besoins des sites ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce qu&#039;il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site.&lt;br /&gt;
Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d&#039;infrastructure matérielle, de documentation, ce que vous n&#039;avez pas et que vous voudriez avoir.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8083</id>
		<title>MemJobs</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=MemJobs&amp;diff=8083"/>
		<updated>2017-03-22T09:22:51Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=== Introduction ===&lt;br /&gt;
&lt;br /&gt;
Cette page est destinée à centraliser les informations concernant la gestion de la mémoire des jobs LHC sur les worker des sites LCG France.&lt;br /&gt;
Les membres du projet LCG France sont invités à fournir sur cette page tout type d&#039;information permettant au projet d&#039;améliorer la gestion de la mémoire.&lt;br /&gt;
Voici quelques finalités :&lt;br /&gt;
&lt;br /&gt;
* les achats de RAM sont-il adaptés ?&lt;br /&gt;
* les expériences sont-elles contente avec la façon dont les sites gèrent la mémoire&lt;br /&gt;
* des efforts doivent-ils être fournis par les sites pour répondre à d&#039;éventuels problèmes liés à la consommation de mémoire&lt;br /&gt;
* ...&lt;br /&gt;
&lt;br /&gt;
=== Configuration des worker nodes ===&lt;br /&gt;
&lt;br /&gt;
Merci d&#039;indiquer dans cette section comment vos machines sont configurées pour gérer la mémoire consommée par les jobs.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Système de batch&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! RAM/core&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Limitation mémoire &lt;br /&gt;
sur jobs (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Type de limite&lt;br /&gt;
&lt;br /&gt;
! Seuil (GB)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
! Dependance &lt;br /&gt;
selon VO (Y/N)&lt;br /&gt;
&lt;br /&gt;
! Informations&lt;br /&gt;
Supplémentaires&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| UGE&lt;br /&gt;
| 3GB&lt;br /&gt;
| Y&lt;br /&gt;
| vmem &amp;amp; rss&lt;br /&gt;
| [3-4] GB RSS&lt;br /&gt;
| Y&lt;br /&gt;
| Limites suffisent en general mais certains workloads speciaux ou temporaires peuvent necessiter des queues plus permissives.&lt;br /&gt;
|-&lt;br /&gt;
| CPPM&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2, 2.5, 3 Go (selon wn)&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| HTCondor&lt;br /&gt;
| 2Go&lt;br /&gt;
| N&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| Torque Maui&lt;br /&gt;
| 2Go&lt;br /&gt;
| Y&lt;br /&gt;
| vmem (pvmem)&lt;br /&gt;
| 4Go vmem, 3Go vmem/core (multicore)&lt;br /&gt;
| N&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Consommation des jobs ===&lt;br /&gt;
&lt;br /&gt;
On reporte ici les valeurs typiques de consommation mémoire moyenne &#039;&#039;observée&#039;&#039; sur les workers (sur dashboard de site ou dashboard expérience). La mémoire peut être exprimée en VMEM, RSS ou PSS, et en GB/core&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
! Site&lt;br /&gt;
! ALICE&lt;br /&gt;
! ATLAS&lt;br /&gt;
! CMS&lt;br /&gt;
! LHCb&lt;br /&gt;
! Observations&lt;br /&gt;
|-&lt;br /&gt;
| CCIN2P3&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LAL&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.44 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LLR&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.31 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
| GRIF-LPNHE&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| x&lt;br /&gt;
| 3.18 Go VMEM&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Vision des expériences ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce que l’expérience souhaite comme type de limitation ou de gestion de la mémoire par les sites.&lt;br /&gt;
La VMEM est-elle OK ? La RSS suffisante ? La PSS souhaitable ? ...&lt;br /&gt;
&lt;br /&gt;
===== ALICE =====&lt;br /&gt;
Pas d&#039;etude serieuse menee jusqu&#039;ici, et pas de besoin particulier. &lt;br /&gt;
Neanmoins on observe regulierement de grosses consommations de memoire, mais il est difficile de savoir aujourd&#039;hui si ces valeurs sont transitoires ou constantes, d&#039;ou la necessite d&#039;analyser la consommation au fur et a mesure que le job se deroule.&lt;br /&gt;
&lt;br /&gt;
===== ATLAS =====&lt;br /&gt;
&lt;br /&gt;
===== CMS =====&lt;br /&gt;
&lt;br /&gt;
===== LHCb =====&lt;br /&gt;
&lt;br /&gt;
=== Besoins des sites ===&lt;br /&gt;
&lt;br /&gt;
Insérez ici ce qu&#039;il vous semble utile pour gérer efficacement la consommation de mémoire dans votre site.&lt;br /&gt;
Vous pouvez parler de monitoring, de communication avec les VOs ou sites, d&#039;infrastructure matérielle, de documentation, ce que vous n&#039;avez pas et que vous voudriez avoir.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8013</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8013"/>
		<updated>2016-09-02T12:11:38Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPMSmall.jpg]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
**Site : Carlos Carranza, Thierry Mouthuy&lt;br /&gt;
**ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
**LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet M3AMU en collaboration avec le mesocentre de Marseille  est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3-4 PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de : &lt;br /&gt;
* 98 serveurs de calcul pour un total de 2000 coeurs&lt;br /&gt;
en SL6 avec un scheduler Torque/maui&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en :&lt;br /&gt;
* marsedpm : Maître DPM.&lt;br /&gt;
* 1,3 Po réparti sur 20 serveurs de disques connecté en 10 Gbps au réseau local.&lt;br /&gt;
Données accessibles avec srm,gsiftp,xroot,dav &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8012</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8012"/>
		<updated>2016-09-02T11:56:01Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPMSmall.jpg]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
**Site : Carlos Carranza, Thierry Mouthuy&lt;br /&gt;
**ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
**LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet M3AMU en collaboration avec le mesocentre de Marseille  est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3-4 PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de : &lt;br /&gt;
* 98 serveurs de calcul pour un total de 2000 coeurs&lt;br /&gt;
en SL6 avec un scheduler Torque/maui&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en :&lt;br /&gt;
* marsedpm : Maître DPM.&lt;br /&gt;
* 1Po réparti sur 20 serveurs de disques connecté en 10 Gbps au réseau local.&lt;br /&gt;
Données accessibles avec srm,gsiftp,xroot,dav &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=ExtensionGarantie&amp;diff=6450</id>
		<title>ExtensionGarantie</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=ExtensionGarantie&amp;diff=6450"/>
		<updated>2012-05-15T07:31:05Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Point sur les extensions de garantie matérielle dans les sites LCG-France&lt;br /&gt;
--[[User:Chollet]] 16:22, 7 mai 2012 (CEST)&lt;br /&gt;
=== LCG-France ===&lt;br /&gt;
Règle actuelle : 4 ans pour toutes les ressources et tous les sites &amp;lt;br&amp;gt;&lt;br /&gt;
Question ouverte : &#039;&#039;&#039;Est-il raisonnable de passer à 5 ans (au moins dur les disques) dans l&#039;ensemble des sites, et ce à compter de 2010 ?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
=== CC ===&lt;br /&gt;
* Disque : 5 ans depuis 2010&lt;br /&gt;
* CPU : 5 ans depuis 2011 (pas d&#039;achat CPU en 2010)&lt;br /&gt;
* MSS : A nas (à préciser pour les achats de lecteurs T10KC)&lt;br /&gt;
&lt;br /&gt;
=== SUBATECH ===&lt;br /&gt;
* CPU : 3 ans&lt;br /&gt;
* Disque : 5 ans  depuis 2009&lt;br /&gt;
&lt;br /&gt;
=== LAPP ===&lt;br /&gt;
* CPU : 5 ans à partir de 2012 ( 3 ans avant) &lt;br /&gt;
* Disque : 5 ans à partir de 2012 ( 4 ans avant)&lt;br /&gt;
&lt;br /&gt;
=== LPC ===&lt;br /&gt;
* CPU : 4 ans à partir de fin 2011 ( 3 ans avant ) - 5 ans à partir de 2012 &lt;br /&gt;
* Disque : 5 ans à partir de 2010 ( 3 ans avant )&lt;br /&gt;
&lt;br /&gt;
=== CPPM ===&lt;br /&gt;
* CPU : 3 ans&lt;br /&gt;
* Disque : 4 ans&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5886</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5886"/>
		<updated>2010-09-21T13:40:07Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
*Site : Carlos Carranza, Thierry Mouthuy, Michel Ricard&lt;br /&gt;
*ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
*LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce moeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 8 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (3 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
* 11 serveur  (Xeon X5650   bi-pro hexa-coeurs) avec 48 GO de mémire&lt;br /&gt;
soit 645 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 10 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM.&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total pour la grille est de l&#039;ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps&lt;br /&gt;
* marbill : Connecté à un NETAPP capacité de 50 TO net. &lt;br /&gt;
* 6 serveurs  avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5885</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5885"/>
		<updated>2010-09-21T13:35:21Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes: Carlos Carranza, Thierry Mouthuy, Michel Ricard&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce moeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 8 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (3 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
* 11 serveur  (Xeon X5650   bi-pro hexa-coeurs) avec 48 GO de mémire&lt;br /&gt;
soit 645 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 10 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM.&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total pour la grille est de l&#039;ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps&lt;br /&gt;
* marbill : Connecté à un NETAPP capacité de 50 TO net. &lt;br /&gt;
* 6 serveurs  avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5883</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5883"/>
		<updated>2010-09-17T14:35:01Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes: Carlos Carranza, Thierry Mouthuy, Michel Ricard&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul Tier-2 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 8 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 45 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 476 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM.&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total pour la grille est de l&#039;ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=French_Sites&amp;diff=5876</id>
		<title>French Sites</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=French_Sites&amp;diff=5876"/>
		<updated>2010-09-17T13:38:26Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Tiers 2 :CPPM (Marseille) - GRIF (Ile de France) - IPHC (Strasbourg) - LAPP (Annecy)&amp;lt;br&amp;gt;LPC (Clermont-Ferrand) - Subatech (Nantes) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__NOTOC__&lt;br /&gt;
== &#039;&#039;Welcome to the LCG-France sites page&#039;&#039; ==&lt;br /&gt;
===== Tier 1 : [[Tier_1:CCIN2P3| CC IN2P3 (Lyon)]] =====&lt;br /&gt;
===== Tiers 2 : [[Tier_2:CPPM|CPPM (Marseille)]] - [[Tier_2:GRIF|GRIF (Ile de France)]] - [[Tier_2:IPHC|IPHC (Strasbourg)]] - [[Tier_2:LAPP|LAPP (Annecy)]]&amp;lt;br&amp;gt;[[Tier_2:LPC|LPC (Clermont-Ferrand)]] - [[Tier_2:Subatech|Subatech (Nantes)]] =====&lt;br /&gt;
&lt;br /&gt;
===== Tiers 3 :  [[Tier_3:IPNL|IPNL (Lyon)]] - [[Tier_3:LPSC|LPSC (Grenoble)]]=====&lt;br /&gt;
[[Image:2010-09-LCGFrance-sites-small.PNG]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&#039;&#039;Septembre 2010&#039;&#039;&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=French_Sites&amp;diff=5875</id>
		<title>French Sites</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=French_Sites&amp;diff=5875"/>
		<updated>2010-09-17T13:36:34Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Tiers 2 :  CPPM (Marseille) -GRIF (Ile de France) - IPHC (Strasbourg) - LAPP (Annecy)&amp;lt;br&amp;gt;LPC (Clermont-Ferrand) - Subatech (Nantes) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__NOTOC__&lt;br /&gt;
== &#039;&#039;Welcome to the LCG-France sites page&#039;&#039; ==&lt;br /&gt;
===== Tier 1 : [[Tier_1:CCIN2P3| CC IN2P3 (Lyon)]] =====&lt;br /&gt;
===== Tiers 2 :[[Tier_2:CPPM|CPPM (Marseille)]] - [[Tier_2:GRIF|GRIF (Ile de France)]] - [[Tier_2:IPHC|IPHC (Strasbourg)]] - [[Tier_2:LAPP|LAPP (Annecy)]]&amp;lt;br&amp;gt;[[Tier_2:LPC|LPC (Clermont-Ferrand)]] - [[Tier_2:Subatech|Subatech (Nantes)]] =====&lt;br /&gt;
&lt;br /&gt;
===== Tiers 3 :  [[Tier_3:IPNL|IPNL (Lyon)]] - [[Tier_3:LPSC|LPSC (Grenoble)]]=====&lt;br /&gt;
[[Image:2010-09-LCGFrance-sites-small.PNG]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&#039;&#039;Septembre 2010&#039;&#039;&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=French_Sites&amp;diff=5874</id>
		<title>French Sites</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=French_Sites&amp;diff=5874"/>
		<updated>2010-09-17T13:33:02Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Tiers 2 : GRIF (Ile de France) - IPHC (Strasbourg) - LAPP (Annecy)&amp;lt;br&amp;gt;LPC (Clermont-Ferrand) - Subatech (Nantes) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__NOTOC__&lt;br /&gt;
== &#039;&#039;Welcome to the LCG-France sites page&#039;&#039; ==&lt;br /&gt;
===== Tier 1 : [[Tier_1:CCIN2P3| CC IN2P3 (Lyon)]] =====&lt;br /&gt;
===== Tiers 2 :  [[Tier_2:CPPM|CPPM (Marseille)]] -[[Tier_2:GRIF|GRIF (Ile de France)]] - [[Tier_2:IPHC|IPHC (Strasbourg)]] - [[Tier_2:LAPP|LAPP (Annecy)]]&amp;lt;br&amp;gt;[[Tier_2:LPC|LPC (Clermont-Ferrand)]] - [[Tier_2:Subatech|Subatech (Nantes)]] =====&lt;br /&gt;
&lt;br /&gt;
===== Tiers 3 :  [[Tier_3:IPNL|IPNL (Lyon)]] - [[Tier_3:LPSC|LPSC (Grenoble)]]=====&lt;br /&gt;
[[Image:2010-09-LCGFrance-sites-small.PNG]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&#039;&#039;Septembre 2010&#039;&#039;&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=French_Sites&amp;diff=5873</id>
		<title>French Sites</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=French_Sites&amp;diff=5873"/>
		<updated>2010-09-17T13:32:30Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Tiers 3 : CPPM (Marseille) - IPNL (Lyon) - LPSC (Grenoble) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__NOTOC__&lt;br /&gt;
== &#039;&#039;Welcome to the LCG-France sites page&#039;&#039; ==&lt;br /&gt;
===== Tier 1 : [[Tier_1:CCIN2P3| CC IN2P3 (Lyon)]] =====&lt;br /&gt;
===== Tiers 2 : [[Tier_2:GRIF|GRIF (Ile de France)]] - [[Tier_2:IPHC|IPHC (Strasbourg)]] - [[Tier_2:LAPP|LAPP (Annecy)]]&amp;lt;br&amp;gt;[[Tier_2:LPC|LPC (Clermont-Ferrand)]] - [[Tier_2:Subatech|Subatech (Nantes)]] =====&lt;br /&gt;
&lt;br /&gt;
===== Tiers 3 :  [[Tier_3:IPNL|IPNL (Lyon)]] - [[Tier_3:LPSC|LPSC (Grenoble)]]=====&lt;br /&gt;
[[Image:2010-09-LCGFrance-sites-small.PNG]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&#039;&#039;Septembre 2010&#039;&#039;&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=CPU-Benches&amp;diff=5400</id>
		<title>CPU-Benches</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=CPU-Benches&amp;diff=5400"/>
		<updated>2009-10-02T07:25:58Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Résultats des benchs effectués par les sites */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Transition vers les nouvelles unités specs HEP-SPEC06&#039;&#039;&#039;&lt;br /&gt;
--MàJ --[[User:Chollet|Chollet]] 09:37, 11 septembre 2009 (CEST)--&lt;br /&gt;
&lt;br /&gt;
=== Page HEPiX de référence === &lt;br /&gt;
* https://hepix.caspur.it/benchmarks&lt;br /&gt;
&lt;br /&gt;
=== Stratégie LCG ===&lt;br /&gt;
* LCG Overview Board - Change of CPU accounting unit (I.Bird):&lt;br /&gt;
&#039;&#039;The working group on benchmarking has now concluded, both on the new benchmark and on the transition process from SI2K. A new benchmark, based on the SPEC 2006 suite has been agreed upon. This uses a combination of the SPEC2006 FP and INT benchmarks, and has been shown to scale well with the experiments’ applications. This benchmark, labelled HEP-SPEC06, will be used in future to specify requirements and resources. &#039;&#039;&#039;There is an agreement to use a simple conversion factor of 4 representing the benchmarks ratio HEP-SPEC06/kSI2K&#039;&#039;&#039;. Sites will be requested to benchmark their existing resources, and the results will be published on a web site. Future procurements should require the vendor to run the benchmark – provided as a simple script. Planning for changing the reporting in the accounting system is under way. The new unit will be used in the April RRB.&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
* LCG Management Board : [https://twiki.cern.ch/twiki/pub/LCG/MbMeetingsMinutes/LCG_Management_Board_2009_01_27.htm Décision du MB du 27 janvier 2009] s&#039;appuyant sur la [http://indico.cern.ch/materialDisplay.py?contribId=3&amp;amp;sessionId=0&amp;amp;materialId=0&amp;amp;confId=49388 proposition du groupe technique (G.Merino)] &lt;br /&gt;
* Pledges WLCG en HEP-SPEC06 : http://lcg.web.cern.ch/LCG/resources.htm&lt;br /&gt;
&lt;br /&gt;
=== HEP-SPEC06 Benchmark ===&lt;br /&gt;
*Le script dispo à https://twiki.cern.ch/twiki/bin/view/FIOgroup/TsiBenchHEPSPEC (Voir les attachements en bas de page tar.gz)&lt;br /&gt;
&lt;br /&gt;
* La distribution de la suite SPEC CPU2006 version 1.1 est disponible (sous AFS au CC).&lt;br /&gt;
Pour plus d&#039;infos contacter F.Chollet ou Pierre Larrieu&lt;br /&gt;
  &lt;br /&gt;
=== Conversion des kSI2k ===&lt;br /&gt;
* Facteur de conversion HEP-SPEC06/kSI2k : 4&lt;br /&gt;
* 1 kSI2k = 4 HEP-SPEC06&lt;br /&gt;
&lt;br /&gt;
=== Publication des capacités CPU ===&lt;br /&gt;
* Document de référence pour la publication dans le contexte actuel (Glue schema 1.3): &lt;br /&gt;
https://twiki.cern.ch/twiki/pub/LCG/WLCGCommonComputingReadinessChallenges/WLCG_GlueSchemaUsage-1.8.pdf &amp;lt;br&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
 Tentative de synthèse --[[User:Chollet|Chollet]] 09:46, 11 septembre 2009 (CEST)&lt;br /&gt;
 ** PhysicalCPUs = processeurs c.a.d chipset&lt;br /&gt;
   Un subcluster de 113 machines bi processeurs quadricoeurs = 226 CPUs physiques&lt;br /&gt;
 ** LogicalCPUs = processeurs logiques ou vus de l&#039;OS correspond au nombre de cœurs pour   &lt;br /&gt;
   autant que l&#039;hyperthreading ne soit pas activé&lt;br /&gt;
   Un subcluster de 113 machines bi processeurs quadricoeurs = 904 CPUs logiques&lt;br /&gt;
   Le nombre de cœurs par CPU physique (par chipset) étant de 4 &lt;br /&gt;
 ** A noter : Un SubCluster est a priori défini comme un ensemble homogène de workers mais &lt;br /&gt;
   il est &amp;quot;admis que dans la pratique&amp;quot; cela ne soit pas le cas. Dans ce cas, les sites sont&lt;br /&gt;
   sensés publier des spécifications moyennes pour certains attributs.&lt;br /&gt;
&lt;br /&gt;
* Consignes pour les sites / Advices for sites (Juin 2009):&lt;br /&gt;
[http://indico.cern.ch/getFile.py/access?sessionId=2&amp;amp;resId=1&amp;amp;materialId=0&amp;amp;confId=63028 Présentation J.Gordon]&lt;br /&gt;
 &lt;br /&gt;
   Tentative de synthèse --[[User:Chollet|Chollet]] 17:50, 10 septembre 2009 (CEST)&lt;br /&gt;
   - Effectuer la mesure de la &#039;&#039;&#039;capacité CPU de la machine&#039;&#039;&#039; à partir du benchmark HEP-SPEC06&lt;br /&gt;
     en utilisant le script mis à disposition ci-dessous. &#039;&#039;&#039;ATTENTION&#039;&#039;&#039; le bench fournit &lt;br /&gt;
    un score par machine et la publication se fait par cœur&lt;br /&gt;
   - Publier la &#039;&#039;&#039;capacité par cœur&#039;&#039;&#039; en HEP-SPEC06 via &lt;br /&gt;
   &#039;&#039;GlueHostProcessorOtherDescription: Benchmark=&amp;lt;value&amp;gt;-HEP-SPEC06&#039;&#039;&lt;br /&gt;
    Cet attribut est également utilisé pour publier le nombre moyen de cœurs par processeur&lt;br /&gt;
    (ou chipset)&lt;br /&gt;
    &#039;&#039;GlueHostProcessorOtherDescription: Cores=&amp;lt;typical number of cores per CPU&amp;gt;,Benchmark=&lt;br /&gt;
    &amp;lt;value&amp;gt;-HEP-SPEC06&#039;&#039; &lt;br /&gt;
   - Convertir la capacité CPU par coeur en SI2K en mulipliant par 250&lt;br /&gt;
   - Mettre à jour l&#039;attribut &#039;&#039;GlueHostBenchmarkSI00&#039;&#039;  &lt;br /&gt;
   En cas de clusteur ou sous-clusteur hétérogène,  GlueHostBenchmarkSI00 étant défini comme &amp;quot;Average SpecInt2000 rating per logical CPU&amp;quot; c.a.d par coeur pourvu que l&#039;hyperthreading soit désactivé, vous êtes invités à effectuer à publier une valeur moyenne.&lt;br /&gt;
&lt;br /&gt;
-----&lt;br /&gt;
&lt;br /&gt;
=== Résultats des benchs effectués par les sites ===&lt;br /&gt;
SPEC CPU2000  &lt;br /&gt;
Des tests de puissance des CPU ont été réalisés au LAPP (Eric Fede) et à Subatech (Jean-Michel Barbet) avecla suite SPEC CPU2000 suivant la méthodologie recommandée : http://hepix.caspur.it/processors/&lt;br /&gt;
Ajout des tests au CPPM (Edith Knoops)&lt;br /&gt;
&lt;br /&gt;
HEP-SPEC06&lt;br /&gt;
Des mesures avec le benchmark suite HEP-SPEC06 sont également disponibles ( fond bleu des tableaux)&lt;br /&gt;
&lt;br /&gt;
Tests réalisés par Jean-Michel :&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux V4.3 i386, gcc v3.4.5&lt;br /&gt;
&lt;br /&gt;
Les autres conditions de test sont disponibles sur demande. A noter que les tests ont été réalisés sur des machines en configuration opérationnelles pour la grille (avec tous les daemons).&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN SI2K/core [1] !! FZK SI2K/core [3] !! CERN SI2K/core corrigé [2] !! &#039;&#039;&#039;HEP-SPEC06 32bits/machine [4]&#039;&#039;&#039; !!  &#039;&#039;&#039;SPEC HEP 64bits/machine [4]&#039;&#039;&#039; &lt;br /&gt;
|-&lt;br /&gt;
| Dell PE1955 || Woodcrest 5160 3.00GHz || 4 || 8Go || 1409 || 1830  ||  2113 || bgcolor=&amp;quot;#0066FF&amp;quot; | 39.48  || bgcolor=&amp;quot;#0066FF&amp;quot; | -&lt;br /&gt;
|-&lt;br /&gt;
| Dell P21950 || Clovertown E5420 2.50GHz || 8 || 16Go || - || - || - || bgcolor=&amp;quot;#0066FF&amp;quot; | 63.18 || bgcolor=&amp;quot;#0066FF&amp;quot; | 57.63&lt;br /&gt;
|-&lt;br /&gt;
| IBM || Clovertown 2.33GHz || 8 || 16Go || 979 || 1875 || 1468 || bgcolor=&amp;quot;#0066FF&amp;quot; | 53.12 || bgcolor=&amp;quot;#0066FF&amp;quot; | -&lt;br /&gt;
|-&lt;br /&gt;
| Dell Optiplex || Pentium4 3.20GHz || 1 || 2Go || 872 || 1128 ||  1308 || bgcolor=&amp;quot;#0066FF&amp;quot; | - || bgcolor=&amp;quot;#0066FF&amp;quot; | -&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Dell PowerEdge 1955 Woodcrest 5160 : http://www.spec.org/osg/cpu2000/results/res2006q3/cpu2000-20060626-06298.html&lt;br /&gt;
&lt;br /&gt;
Dell PowerEdge 1950  Clovertown E5420 : &lt;br /&gt;
&lt;br /&gt;
IBM 3550 Woodcrest 5160 : http://www.spec.org/osg/cpu2000/results/res2006q3/cpu2000-20060623-06219.html&lt;br /&gt;
&lt;br /&gt;
IBM 3350 Clovertown E5345 : http://www.spec.org/osg/cpu2000/results/res2006q4/cpu2000-20061113-07918.html&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
Tests réalisés au LAPP (eric) :&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux V3.08 i386, gcc v3.4.3&lt;br /&gt;
&lt;br /&gt;
A noter que les tests ont été réalisés sur des machines dont tous les services non nécéssaires étaient desactivés&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN SI2K/core [1] !! FZK SI2K/core [3]!! CERN SI2K/core corrigé [2] &lt;br /&gt;
|-&lt;br /&gt;
| HP BL 460c || Woodcrest 2.66GHz || 4 || 8Go || 1367 || 1665 || 2050   &lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux V4.5 x86_64, gcc v3.4&lt;br /&gt;
&lt;br /&gt;
A noter que les tests ont été réalisés sur des machines dont tous les services non nécéssaires étaient desactivés. Un tuning &amp;quot;simple&amp;quot; au niveau du bios donne des disparités dans les résultats des bench qui depassent les 10 %.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN SI2K/core [1] !! FZK SI2K/core [3]!! CERN SI2K/core corrigé [2] !! &#039;&#039;&#039;HEP-SPEC06 32bits [4] per machin&#039;&#039;&#039; !!  &#039;&#039;&#039;HEP-SPEC06 64bits [4] per machin&#039;&#039;&#039; &lt;br /&gt;
|-&lt;br /&gt;
| HP BL 460c || Woodcrest 2.66GHz || 4 || 8Go || 1485 || 1592 || 2227 || bgcolor=&amp;quot;#0066FF&amp;quot; | 36.58 || bgcolor=&amp;quot;#0066FF&amp;quot; | 34.6 &lt;br /&gt;
|-&lt;br /&gt;
| HP BL 460c || Clovertown 2.33GHz || 8 || 16Go || 1225 || x || 1837 || bgcolor=&amp;quot;#0066FF&amp;quot; | 56.04 || bgcolor=&amp;quot;#0066FF&amp;quot; | 51.18&lt;br /&gt;
|-&lt;br /&gt;
| DELL 1950 || Intel 5335 2GHz || 8 || 8Go || 1060 || 1139 || 1590 || bgcolor=&amp;quot;#0066FF&amp;quot; | x  || bgcolor=&amp;quot;#0066FF&amp;quot; | x&lt;br /&gt;
|-&lt;br /&gt;
| HP BL 460c || Harpertown 3GHz || 8 || 16Go || 1620 || 1715 || 2430 || bgcolor=&amp;quot;#0066FF&amp;quot; | 70.83 || bgcolor=&amp;quot;#0066FF&amp;quot; | 63.99&lt;br /&gt;
|-&lt;br /&gt;
| DELL M600 || Harpertown 2.66GHz || 8 || 32Go || 1481 || 1588 || 2221 || bgcolor=&amp;quot;#0066FF&amp;quot; | x || bgcolor=&amp;quot;#0066FF&amp;quot; | x&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[1] : Moyenne de 3 exécutions successives avec les optimisations CERN, chaque exécution démarrant un benchmark CPU2000 par CPU core. &lt;br /&gt;
&lt;br /&gt;
[2] : Correction : La valeur moyenne ci-dessus + 50%. C&#039;est la valeur à publier via le système d&#039;information de la grille.&lt;br /&gt;
&lt;br /&gt;
[3] : Une exécution unique avec les optimisations FZK à titre indicatif.&lt;br /&gt;
&lt;br /&gt;
[4] : Benchmark suite HEP SPEC, en suivant les recommandations : https://twiki.cern.ch/twiki/bin/view/FIOgroup//TsiBenchHEPSPEC &lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
Tests réalisés au CPPM  (Edith) :&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux 4.6 x86_64, gcc v3.4.6&lt;br /&gt;
&lt;br /&gt;
A noter que les tests ont été réalisés sur des machines dont tous les services non nécéssaires étaient desactivés&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN SI2K/core  !! FZK SI2K/core !! CERN32 SI2K/core || CERN SI2K/core corrigé !! &#039;&#039;&#039;HEP-SPEC06 32bits [4] per machin&#039;&#039;&#039; &lt;br /&gt;
|-&lt;br /&gt;
| HP DL145 || Opteron 250  2.4Ghz || 2 || 4Go || 1149 || 1278 || 972 || 1725 || bgcolor=&amp;quot;#0066FF&amp;quot; | 15.14 &lt;br /&gt;
|-&lt;br /&gt;
| SUN      || Opteron 250  2.4Ghz || 2 || 4Go || 1173 || 1298 || 988  || 1760&lt;br /&gt;
|-&lt;br /&gt;
| HP DL145G2 || Opteron 275 2.2 Ghz || 4 ||6Go || 981 || 1087 ||  857  || 1471 || bgcolor=&amp;quot;#0066FF&amp;quot; | 26.52&lt;br /&gt;
|-&lt;br /&gt;
| DELL       || Opteron 2218 2.6 Ghz || 4 || 8Go || 1199 || 1073 ||1045 || 1798 || bgcolor=&amp;quot;#0066FF&amp;quot; | 32.24&lt;br /&gt;
|-&lt;br /&gt;
| DELL       || Xeon E5420 2.5Ghz ||  8 || 16 Go || 1418 ||1528 || x ||2128 || bgcolor=&amp;quot;#0066FF&amp;quot; | 63.12&lt;br /&gt;
&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
Tests réalisés à l&#039;IPHC (Jérôme) :&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux 4.6 x86_64, gcc v3.4.6&lt;br /&gt;
&lt;br /&gt;
Pour la réalisation de ces tests, seuls les services indispensables étaient activés.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN SI2K/core  !! FZK SI2K/core !! CERN SI2K/core corrigé !! &#039;&#039;&#039;HEP-SPEC06 32bits [1] per machin&#039;&#039;&#039;&lt;br /&gt;
|-&lt;br /&gt;
| DELL M600 || Xeon E5410 2.33Ghz || 8 || 16Go || N/A || N/A || N/A || bgcolor=&amp;quot;#0066FF&amp;quot; | 61.05&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[1] Moyenne des résultats obtenus sur quatre tests.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
Tests réalisés au LPC (Jean-Claude) :&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux 4.6 x86_64, gcc v3.4.6&lt;br /&gt;
&lt;br /&gt;
Pour la réalisation de ces tests, seuls les services indispensables étaient activés.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN SI2K/core  !! FZK SI2K/core !! CERN SI2K/core corrigé !! &#039;&#039;&#039;HEP-SPEC06 32bits [1] per machin&#039;&#039;&#039;&lt;br /&gt;
|-&lt;br /&gt;
| IBM Blade  || Xeon E5345 2.33Ghz || 8 || 16Go || N/A || N/A || N/A || bgcolor=&amp;quot;#0066FF&amp;quot; | 57.41&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[1] Moyenne des résultats obtenus sur trois tests.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux 5.3 x86_64, gcc v4.1.2&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN SI2K/core  !! FZK SI2K/core !! CERN SI2K/core corrigé !! &#039;&#039;&#039;HEP-SPEC06 32bits [2] per machin&#039;&#039;&#039;&lt;br /&gt;
|-&lt;br /&gt;
| IBM Blade  || Xeon E5430 2.66Ghz || 8 || 12Go || N/A || N/A || N/A || bgcolor=&amp;quot;#0066FF&amp;quot; | 70.64&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[2] Moyenne des résultats obtenus sur quatre tests.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
Tests réalisés au LLR (pascale):&lt;br /&gt;
Scientific-Linux 5.3 x86_64, gcc v4.1.2&lt;br /&gt;
&lt;br /&gt;
les machines ont ete installees comme les WN standard de la grille&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! Virtual CPU enabled  !!  &#039;&#039;&#039;HEP-SPEC06 32bits per machin&#039;&#039;&#039; !! HEP-SPEC06 64bits [1] per machin&#039;&#039;&#039; &lt;br /&gt;
|-&lt;br /&gt;
| DELL R410  || E 5520  || 16[1] || 24Go || YES || 118.57 || 143.44&lt;br /&gt;
|-&lt;br /&gt;
|            || E 5540  || 16[1] || 24Go || YES || 128.38 || 151.03&lt;br /&gt;
|-&lt;br /&gt;
| DELL R410  || E 5520  || 8 || 24Go || NO  || 96.51 || 113.35&lt;br /&gt;
|-&lt;br /&gt;
|            || E 5540  || 8 || 24Go || NO  || 103.41|| 121.47&lt;br /&gt;
|-&lt;br /&gt;
| DELL R410  ||  E 5520  || 16[1] || 16Go || YES  || Pas fait || Pas fait&lt;br /&gt;
|-&lt;br /&gt;
|            || E 5540  || 16[1] || 16Go || YES || Pas fait || 148.64&lt;br /&gt;
|-&lt;br /&gt;
| DELL R410  || E 5520  || 8 || 16Go || NO  || 94.97 || 109.42&lt;br /&gt;
|-&lt;br /&gt;
|            || E 5540  || 8 || 16Go || NO  || 102.41|| 117.5&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[1] Sur les serveurs il y a réellement 8 cores en tout. A cause de l&#039;activation du &amp;quot;Virtual CPU&amp;quot; , le systeme d&#039;exploitation pense qu&#039;il y a 16 procs : la commande /proc/cpuinfo donne 16 coeurs. D&#039;après les tests il est interessant d&#039;activer le &amp;quot;Virtual CPU&amp;quot;. Mais, combien de jobs faut-il activer en parallele? Et comment allons-nous les déclarer dans la grille?&lt;br /&gt;
Voici les résultats des tests avec 8, 10, 12, 14 et 16  jobs lancés en parallèle pour la &lt;br /&gt;
configuration suivante : R410, 16g ram, Virtual CPU activé.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Nb jobs !!  HEP-SPEC06 64bits [1] per machin&#039;&#039;&#039; &lt;br /&gt;
|-&lt;br /&gt;
| 8 jobs  || 115.66  &lt;br /&gt;
|-&lt;br /&gt;
| 10 jobs  || 130.66  &lt;br /&gt;
|-&lt;br /&gt;
| 12 jobs  || 139.29 &lt;br /&gt;
|-&lt;br /&gt;
| 14 jobs  || 144.38 &lt;br /&gt;
|-&lt;br /&gt;
| 16 jobs  || 148.64&lt;br /&gt;
&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
----&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4977</id>
		<title>Infrastructure Stockage</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4977"/>
		<updated>2009-02-23T09:56:42Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Virtual disks */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Notes techniques concernant la configuration des serveurs de fichiers (RAID, partitions, filesystems)&lt;br /&gt;
&lt;br /&gt;
== Dell Serveur PE2950 et Baies MD1000 ==&lt;br /&gt;
&lt;br /&gt;
=== Généralités ===&lt;br /&gt;
&#039;&#039;&#039;Les serveurs sont équipés&#039;&#039;&#039; &lt;br /&gt;
*Une carte Controleur Raid Perc 6/i pour les disques internes (RAID 1 sur 2 disques)&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Contr%C3%B4leurs/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=403-10298&lt;br /&gt;
&lt;br /&gt;
*Deux carte controleurs Perc 6/e pour 2 baies externes:&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Mat%C3%A9riel_pour_entreprise/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=405-10775#Overview&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;2) La Baie MD1000&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
http://support.euro.dell.com/support/topics/topic.aspx/emea/shared/support/root/fr/product_support_central?~ck=ln&amp;amp;c=fr&amp;amp;l=fr&amp;amp;lnki=0&amp;amp;s=gen&amp;amp;SystemID=PWV_MD1000&lt;br /&gt;
&lt;br /&gt;
=== Choix du RAID ===&lt;br /&gt;
&lt;br /&gt;
http://www.hardwaresecrets.com/article/314/3&lt;br /&gt;
&lt;br /&gt;
=== Virtual disks ===&lt;br /&gt;
&lt;br /&gt;
CPPM : &lt;br /&gt;
On a essayé 1 virtual disque par baie avec ou sans hot spare&lt;br /&gt;
&lt;br /&gt;
On est en train d&#039;essayer un seul virtual disk pour les 2 baies ( 24 To) avec RAID6 et 1 hot spare.&lt;br /&gt;
C&#039;est pas trop 27 disques dans un raid group ? C&#039;est juste un test..&lt;br /&gt;
Finalement on reste dans cette config. 1 seul RAID6 sur les 2 baies et 1 disque hot spare.&lt;br /&gt;
&lt;br /&gt;
On a fait 4 filesystems ext3 de 6 To (le dernier a 5.8 To).&lt;br /&gt;
Le premier a été mis en prod pour atlas ce 22/02/2009.&lt;br /&gt;
&lt;br /&gt;
=== Filesystems ===&lt;br /&gt;
&lt;br /&gt;
Test avec xfs et ext3:&lt;br /&gt;
&lt;br /&gt;
 parted  /dev/sdc mklabel gpt&lt;br /&gt;
 parted  /dev/sdc mkpart primary xfs 0 5720000&lt;br /&gt;
 parted  /dev/sdc mkpart primary ext3 5720001 11440128&lt;br /&gt;
&lt;br /&gt;
Pour couper en Deux automatiquement:&lt;br /&gt;
 export X=$((-(`parted  /dev/sdc print| grep &#039;trie&#039;| awk &#039;{ print $6 }&#039;| awk -F &#039;-&#039; &#039;{ print $2 }&#039;| \&lt;br /&gt;
 awk -F &#039;,&#039; &#039;{ print $1 }&#039;|sed -e &#039;s/\.//g&#039;`)/2))&lt;br /&gt;
&lt;br /&gt;
 mkfs -t xfs -f /dev/sdc1&lt;br /&gt;
 mkfs -t ext3 /dev/sdc2&lt;br /&gt;
&lt;br /&gt;
=== Performances ===&lt;br /&gt;
http://www.delltechcenter.com/page/PERC6+with+MD1000+and+MD1120+Performance+Analysis+Report&lt;br /&gt;
http://www.dell.com/downloads/global/products/pvaul/en/PERC6_PerfWP_WMD1120.pdf&lt;br /&gt;
&lt;br /&gt;
Test a l&#039;IRFU&lt;br /&gt;
&lt;br /&gt;
  wget http://ovh.dl.sourceforge.net/sourceforge/lmbench/lmbench-3.0-a5.tgz&lt;br /&gt;
  tar zxvf lmbench-3.0-a5.tgz&lt;br /&gt;
  cd lmbench-3.0-a5&lt;br /&gt;
  make&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
||  ext3      ||RAID 5           || RAID 6             || RAID 50          ||&lt;br /&gt;
&lt;br /&gt;
|| Ecriture   || 324.8031 MB/sec ||  380.2232 MB/sec   ||404.0307 MB/sec   ||&lt;br /&gt;
&lt;br /&gt;
|| Lecture    || 244.1971 MB/sec || 129.6664 MB/sec    ||  179.0090 MB/sec ||&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
||  xfs      ||RAID 5           || RAID 6          || RAID 50         ||&lt;br /&gt;
&lt;br /&gt;
|| Ecriture  ||533.5398 MB/sec  || 446.1268 MB/sec || 547.4776 MB/sec ||&lt;br /&gt;
&lt;br /&gt;
|| Lecture   || 255.4343 MB/sec || 134.1572 MB/sec ||184.3938 MB/sec  ||&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pour le RAID 5; les tests ont été fait avec une seule baie attachée au serveur, les resultats ne sont donc peut être pas comparables..&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Exemple de commande:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 [root@node35 lmbench-3.0-a5]# bin/x86_64-linux-gnu/lmdd if=internal of=/fs3/out2 bs=1M count=32000 fsync=1&lt;br /&gt;
 32000.0000 MB in 58.4499 secs, 547.4776 MB/sec&lt;br /&gt;
 [root@node35 lmbench-3.0-a5]# bin/x86_64-linux-gnu/lmdd of=internal if=/fs3/out2 bs=1M count=32000 fsync=1&lt;br /&gt;
 32000.0000 MB in 173.5417 secs, 184.3938 MB/sec&lt;br /&gt;
&lt;br /&gt;
=== Installation de Dell OpenManage ===&lt;br /&gt;
http://support.euro.dell.com/support/downloads/download.aspx?c=fr&amp;amp;l=fr&amp;amp;s=gen&amp;amp;releaseid=R198963&amp;amp;SystemID=PWV_MD1000&amp;amp;servicetag=&amp;amp;os=LIN4&amp;amp;osl=fr&amp;amp;deviceid=2331&amp;amp;devlib=0&amp;amp;typecnt=0&amp;amp;vercnt=4&amp;amp;catid=-1&amp;amp;impid=-1&amp;amp;formatcnt=2&amp;amp;libid=36&amp;amp;fileid=275306&lt;br /&gt;
&lt;br /&gt;
*Installation par quattor (JM)&lt;br /&gt;
On peut installer à partir du CD bien sûr mais (si on est sûr que le système est supporté)&lt;br /&gt;
il semble qu&#039;on puisse installer la suite Dell Openmanage via Quattor en intégrant les&lt;br /&gt;
RPMS dans un repository et ajoutant quelques librairies i386 nécessaires.&lt;br /&gt;
voir:&lt;br /&gt;
https://trac.lal.in2p3.fr/LCGQWG/browser/templates/trunk/sites/example/drivers/dell_openmanage.tpl&lt;br /&gt;
&lt;br /&gt;
*Pour configurer les RAIDs ca semble possible avec ce genre de CLI (non testé Christine):&lt;br /&gt;
 # omconfig storage vdisk -?&lt;br /&gt;
&lt;br /&gt;
===Quelques commandes utilisées au CPPM ===&lt;br /&gt;
&lt;br /&gt;
*Se debarasser d&#039;une configuration &amp;quot;foreign&amp;quot; dans le cas ou un disque a ete enleve brutalement et reintroduit&lt;br /&gt;
Dans OMSA (OpenManager? Server Administration) installe sur le serveur utilise une commande ligne&lt;br /&gt;
&lt;br /&gt;
 omconfig storage controller action=clearforeignconfig controller=0&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Mise a jour du firmware de la baie&lt;br /&gt;
Aller chercher le fichier d&#039;update chez DELL (support.dell.com)&lt;br /&gt;
le fichier est un shell executable de la forme RAIDxxxxxx.BIN&lt;br /&gt;
lire la partie instruction(how to) par sh RAIDxxxxxx.BIN --version&lt;br /&gt;
puis l&#039;executer en prenant les precautions pour qu&#039;il n&#039;y ait aucune activite sur la baie&lt;br /&gt;
sh RAIDxxxxxx.BIN&lt;br /&gt;
&lt;br /&gt;
.................................................&lt;br /&gt;
&lt;br /&gt;
*Mise a jour du driver pour le controlleur Megaraid_SAS&lt;br /&gt;
- verification de la version du driver:&lt;br /&gt;
 modinfo megaraid_sas&lt;br /&gt;
-recuperation du driver chez Dell sous forme d&#039;une archive .tgz&lt;br /&gt;
  wget http://ftp.us.dell.com/SAS-RAID/megaraid_sas-v00.00.03.21-4-R193772.tar.gz&lt;br /&gt;
  tar zxvf megaraid_sas-v00.00.03.21-4-R193772.tar.gz&lt;br /&gt;
-extraire et lire le fichier d&#039;instruction.&lt;br /&gt;
&lt;br /&gt;
-Il faut recompiler avec le noyau donc si souces du noyau absentes les rajouter&lt;br /&gt;
 wget http://quattorsrv.lal.in2p3.fr/packages/os/sl460-x86_64/base/SL/RPMS/kernel-largesmp-devel-2.6.9-67.0.4.EL.x86_64.rpm&lt;br /&gt;
  rpm -ivh kernel-largesmp-devel-2.6.9-67.0.4.EL.x86_64.rpm &lt;br /&gt;
-rajouter dkms (se trouve avec openipmi dans le soft de  Dell OpenManage Server Administrator Managed Node:&lt;br /&gt;
http://support.euro.dell.com/support/downloads/download.aspx?c=fr&amp;amp;l=fr&amp;amp;s=gen&amp;amp;releaseid=R198963&amp;amp;SystemID=PWV_MD1000&amp;amp;servicetag=&amp;amp;os=LIN4&amp;amp;osl=fr&amp;amp;deviceid=2331&amp;amp;devlib=0&amp;amp;typecnt=0&amp;amp;vercnt=4&amp;amp;catid=-1&amp;amp;impid=-1&amp;amp;formatcnt=2&amp;amp;libid=36&amp;amp;fileid=275306)&lt;br /&gt;
&lt;br /&gt;
-compiler/installer le module:&lt;br /&gt;
  dkms build -m megaraid_sas -v v00.00.03.21 -k 2.6.9-67.0.4.ELlargesmp&lt;br /&gt;
  dkms install -m megaraid_sas -v v00.00.03.21 -k 2.6.9-67.0.4.ELlargesmp&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
-si ca se finit sans erreur verifier la version du driver qui doit etre 00.00.03.21&lt;br /&gt;
 modinfo megaraid_sas&lt;br /&gt;
 dkms status&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4942</id>
		<title>Infrastructure Stockage</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4942"/>
		<updated>2009-02-06T15:49:20Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Virtual disks */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Notes techniques concernant la configuration des serveurs de fichiers (RAID, partitions, filesystems)&lt;br /&gt;
&lt;br /&gt;
== Dell Serveur PE2950 et Baies MD1000 ==&lt;br /&gt;
&lt;br /&gt;
=== Généralités ===&lt;br /&gt;
&#039;&#039;&#039;Les serveurs sont équipés&#039;&#039;&#039; &lt;br /&gt;
*Une carte Controleur Raid Perc 6/i pour les disques internes (RAID 1 sur 2 disques)&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Contr%C3%B4leurs/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=403-10298&lt;br /&gt;
&lt;br /&gt;
*Deux carte controleurs Perc 6/e pour 2 baies externes:&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Mat%C3%A9riel_pour_entreprise/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=405-10775#Overview&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;2) La Baie MD1000&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
http://support.euro.dell.com/support/topics/topic.aspx/emea/shared/support/root/fr/product_support_central?~ck=ln&amp;amp;c=fr&amp;amp;l=fr&amp;amp;lnki=0&amp;amp;s=gen&amp;amp;SystemID=PWV_MD1000&lt;br /&gt;
&lt;br /&gt;
=== Choix du RAID ===&lt;br /&gt;
&lt;br /&gt;
http://www.hardwaresecrets.com/article/314/3&lt;br /&gt;
&lt;br /&gt;
=== Virtual disks ===&lt;br /&gt;
&lt;br /&gt;
CPPM : &lt;br /&gt;
On a essayé 1 virtual disque par baie avec ou sans hot spare&lt;br /&gt;
&lt;br /&gt;
On est en train d&#039;essayer un seul virtual disk pour les 2 baies ( 24 To) avec RAID6 et 1 hot spare.&lt;br /&gt;
C&#039;est pas trop 27 disques dans un raid group ? C&#039;est juste un test..&lt;br /&gt;
&lt;br /&gt;
=== Filesystems ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Performances ===&lt;br /&gt;
http://www.delltechcenter.com/page/PERC6+with+MD1000+and+MD1120+Performance+Analysis+Report&lt;br /&gt;
http://www.dell.com/downloads/global/products/pvaul/en/PERC6_PerfWP_WMD1120.pdf&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Installation de Dell OpenManage ===&lt;br /&gt;
http://support.euro.dell.com/support/downloads/download.aspx?c=fr&amp;amp;l=fr&amp;amp;s=gen&amp;amp;releaseid=R198963&amp;amp;SystemID=PWV_MD1000&amp;amp;servicetag=&amp;amp;os=LIN4&amp;amp;osl=fr&amp;amp;deviceid=2331&amp;amp;devlib=0&amp;amp;typecnt=0&amp;amp;vercnt=4&amp;amp;catid=-1&amp;amp;impid=-1&amp;amp;formatcnt=2&amp;amp;libid=36&amp;amp;fileid=275306&lt;br /&gt;
&lt;br /&gt;
JM:&lt;br /&gt;
On peut installer à partir du CD bien sûr mais (si on est sûr que le système est supporté)&lt;br /&gt;
il semble qu&#039;on puisse installer la suite Dell Openmanage via Quattor en intégrant les&lt;br /&gt;
RPMS dans un repository et ajoutant quelques librairies i386 nécessaires.&lt;br /&gt;
&lt;br /&gt;
===Quelques commandes utilisées au CPPM ===&lt;br /&gt;
&lt;br /&gt;
Se debarasser d&#039;une configuration &amp;quot;foreign&amp;quot; dans le cas ou un disque a ete enleve brutalement et reintroduit&lt;br /&gt;
Dans OMSA (OpenManager? Server Administration) installe sur le serveur utilise une commande ligne&lt;br /&gt;
&lt;br /&gt;
&amp;gt;omconfig storage controller action=clearforeignconfig controller=0&lt;br /&gt;
&lt;br /&gt;
........................................................................................................&lt;br /&gt;
&lt;br /&gt;
Mise a jour du firmware de la baie&lt;br /&gt;
Aller chercher le fichier d&#039;update chez DELL (support.dell.com)&lt;br /&gt;
le fichier est un shell executable de la forme RAIDxxxxxx.BIN&lt;br /&gt;
lire la partie instruction(how to) par sh RAIDxxxxxx.BIN --version&lt;br /&gt;
puis l&#039;executer en prenant les precautions pour qu&#039;il n&#039;y ait aucune activite sur la baie&lt;br /&gt;
sh RAIDxxxxxx.BIN&lt;br /&gt;
&lt;br /&gt;
.................................................&lt;br /&gt;
&lt;br /&gt;
Mise a jour du driver pour le controlleur Megaraid_SAS&lt;br /&gt;
- verification de la version du driver&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
-recuperation du driver chez Dell sous forme d&#039;une archive .tgz&lt;br /&gt;
-extraire et lire le fichier d&#039;instruction.&lt;br /&gt;
-Il faut recompiler avec le noyau donc si souces du noyau absentes les rajouter&lt;br /&gt;
&amp;gt;rpm -Uvh kernel-largesmp-devel-2.6.9-78.0.1.EL.x86_64.rpm&lt;br /&gt;
-rajouter dkms si besoin&lt;br /&gt;
si ca se finit sans erreur verifier la version du driver qui doit etre 00.00.03.21&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
&lt;br /&gt;
..........................................................&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4941</id>
		<title>Infrastructure Stockage</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4941"/>
		<updated>2009-02-06T15:43:02Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Quelques commandes utilisées au CPPM */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Notes techniques concernant la configuration des serveurs de fichiers (RAID, partitions, filesystems)&lt;br /&gt;
&lt;br /&gt;
== Dell Serveur PE2950 et Baies MD1000 ==&lt;br /&gt;
&lt;br /&gt;
=== Généralités ===&lt;br /&gt;
&#039;&#039;&#039;Les serveurs sont équipés&#039;&#039;&#039; &lt;br /&gt;
*Une carte Controleur Raid Perc 6/i pour les disques internes (RAID 1 sur 2 disques)&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Contr%C3%B4leurs/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=403-10298&lt;br /&gt;
&lt;br /&gt;
*Deux carte controleurs Perc 6/e pour 2 baies externes:&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Mat%C3%A9riel_pour_entreprise/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=405-10775#Overview&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;2) La Baie MD1000&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
http://support.euro.dell.com/support/topics/topic.aspx/emea/shared/support/root/fr/product_support_central?~ck=ln&amp;amp;c=fr&amp;amp;l=fr&amp;amp;lnki=0&amp;amp;s=gen&amp;amp;SystemID=PWV_MD1000&lt;br /&gt;
&lt;br /&gt;
=== Choix du RAID ===&lt;br /&gt;
&lt;br /&gt;
http://www.hardwaresecrets.com/article/314/3&lt;br /&gt;
&lt;br /&gt;
=== Virtual disks ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Filesystems ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Performances ===&lt;br /&gt;
http://www.delltechcenter.com/page/PERC6+with+MD1000+and+MD1120+Performance+Analysis+Report&lt;br /&gt;
http://www.dell.com/downloads/global/products/pvaul/en/PERC6_PerfWP_WMD1120.pdf&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Installation de Dell OpenManage ===&lt;br /&gt;
http://support.euro.dell.com/support/downloads/download.aspx?c=fr&amp;amp;l=fr&amp;amp;s=gen&amp;amp;releaseid=R198963&amp;amp;SystemID=PWV_MD1000&amp;amp;servicetag=&amp;amp;os=LIN4&amp;amp;osl=fr&amp;amp;deviceid=2331&amp;amp;devlib=0&amp;amp;typecnt=0&amp;amp;vercnt=4&amp;amp;catid=-1&amp;amp;impid=-1&amp;amp;formatcnt=2&amp;amp;libid=36&amp;amp;fileid=275306&lt;br /&gt;
&lt;br /&gt;
JM:&lt;br /&gt;
On peut installer à partir du CD bien sûr mais (si on est sûr que le système est supporté)&lt;br /&gt;
il semble qu&#039;on puisse installer la suite Dell Openmanage via Quattor en intégrant les&lt;br /&gt;
RPMS dans un repository et ajoutant quelques librairies i386 nécessaires.&lt;br /&gt;
&lt;br /&gt;
===Quelques commandes utilisées au CPPM ===&lt;br /&gt;
&lt;br /&gt;
Se debarasser d&#039;une configuration &amp;quot;foreign&amp;quot; dans le cas ou un disque a ete enleve brutalement et reintroduit&lt;br /&gt;
Dans OMSA (OpenManager? Server Administration) installe sur le serveur utilise une commande ligne&lt;br /&gt;
&lt;br /&gt;
&amp;gt;omconfig storage controller action=clearforeignconfig controller=0&lt;br /&gt;
&lt;br /&gt;
........................................................................................................&lt;br /&gt;
&lt;br /&gt;
Mise a jour du firmware de la baie&lt;br /&gt;
Aller chercher le fichier d&#039;update chez DELL (support.dell.com)&lt;br /&gt;
le fichier est un shell executable de la forme RAIDxxxxxx.BIN&lt;br /&gt;
lire la partie instruction(how to) par sh RAIDxxxxxx.BIN --version&lt;br /&gt;
puis l&#039;executer en prenant les precautions pour qu&#039;il n&#039;y ait aucune activite sur la baie&lt;br /&gt;
sh RAIDxxxxxx.BIN&lt;br /&gt;
&lt;br /&gt;
.................................................&lt;br /&gt;
&lt;br /&gt;
Mise a jour du driver pour le controlleur Megaraid_SAS&lt;br /&gt;
- verification de la version du driver&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
-recuperation du driver chez Dell sous forme d&#039;une archive .tgz&lt;br /&gt;
-extraire et lire le fichier d&#039;instruction.&lt;br /&gt;
-Il faut recompiler avec le noyau donc si souces du noyau absentes les rajouter&lt;br /&gt;
&amp;gt;rpm -Uvh kernel-largesmp-devel-2.6.9-78.0.1.EL.x86_64.rpm&lt;br /&gt;
-rajouter dkms si besoin&lt;br /&gt;
si ca se finit sans erreur verifier la version du driver qui doit etre 00.00.03.21&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
&lt;br /&gt;
..........................................................&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4940</id>
		<title>Infrastructure Stockage</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4940"/>
		<updated>2009-02-06T15:42:35Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Quelques commandes utilisées au CPPM */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Notes techniques concernant la configuration des serveurs de fichiers (RAID, partitions, filesystems)&lt;br /&gt;
&lt;br /&gt;
== Dell Serveur PE2950 et Baies MD1000 ==&lt;br /&gt;
&lt;br /&gt;
=== Généralités ===&lt;br /&gt;
&#039;&#039;&#039;Les serveurs sont équipés&#039;&#039;&#039; &lt;br /&gt;
*Une carte Controleur Raid Perc 6/i pour les disques internes (RAID 1 sur 2 disques)&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Contr%C3%B4leurs/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=403-10298&lt;br /&gt;
&lt;br /&gt;
*Deux carte controleurs Perc 6/e pour 2 baies externes:&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Mat%C3%A9riel_pour_entreprise/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=405-10775#Overview&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;2) La Baie MD1000&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
http://support.euro.dell.com/support/topics/topic.aspx/emea/shared/support/root/fr/product_support_central?~ck=ln&amp;amp;c=fr&amp;amp;l=fr&amp;amp;lnki=0&amp;amp;s=gen&amp;amp;SystemID=PWV_MD1000&lt;br /&gt;
&lt;br /&gt;
=== Choix du RAID ===&lt;br /&gt;
&lt;br /&gt;
http://www.hardwaresecrets.com/article/314/3&lt;br /&gt;
&lt;br /&gt;
=== Virtual disks ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Filesystems ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Performances ===&lt;br /&gt;
http://www.delltechcenter.com/page/PERC6+with+MD1000+and+MD1120+Performance+Analysis+Report&lt;br /&gt;
http://www.dell.com/downloads/global/products/pvaul/en/PERC6_PerfWP_WMD1120.pdf&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Installation de Dell OpenManage ===&lt;br /&gt;
http://support.euro.dell.com/support/downloads/download.aspx?c=fr&amp;amp;l=fr&amp;amp;s=gen&amp;amp;releaseid=R198963&amp;amp;SystemID=PWV_MD1000&amp;amp;servicetag=&amp;amp;os=LIN4&amp;amp;osl=fr&amp;amp;deviceid=2331&amp;amp;devlib=0&amp;amp;typecnt=0&amp;amp;vercnt=4&amp;amp;catid=-1&amp;amp;impid=-1&amp;amp;formatcnt=2&amp;amp;libid=36&amp;amp;fileid=275306&lt;br /&gt;
&lt;br /&gt;
JM:&lt;br /&gt;
On peut installer à partir du CD bien sûr mais (si on est sûr que le système est supporté)&lt;br /&gt;
il semble qu&#039;on puisse installer la suite Dell Openmanage via Quattor en intégrant les&lt;br /&gt;
RPMS dans un repository et ajoutant quelques librairies i386 nécessaires.&lt;br /&gt;
&lt;br /&gt;
===Quelques commandes utilisées au CPPM ===&lt;br /&gt;
&lt;br /&gt;
 Se debarasser d&#039;une configuration &amp;quot;foreign&amp;quot; dans le cas ou un disque a ete enleve brutalement et reintroduit&lt;br /&gt;
Dans OMSA (OpenManager? Server Administration) installe sur le serveur utilise une commande ligne&lt;br /&gt;
&lt;br /&gt;
&amp;gt;omconfig storage controller action=clearforeignconfig controller=0&lt;br /&gt;
&lt;br /&gt;
........................................................................................................&lt;br /&gt;
&lt;br /&gt;
Mise a jour du firmware de la baie&lt;br /&gt;
Aller chercher le fichier d&#039;update chez DELL (support.dell.com)&lt;br /&gt;
le fichier est un shell executable de la forme RAIDxxxxxx.BIN&lt;br /&gt;
lire la partie instruction(how to) par sh RAIDxxxxxx.BIN --version&lt;br /&gt;
puis l&#039;executer en prenant les precautions pour qu&#039;il n&#039;y ait aucune activite sur la baie&lt;br /&gt;
sh RAIDxxxxxx.BIN&lt;br /&gt;
&lt;br /&gt;
.................................................&lt;br /&gt;
&lt;br /&gt;
Mise a jour du driver pour le controlleur Megaraid_SAS&lt;br /&gt;
- verification de la version du driver&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
-recuperation du driver chez Dell sous forme d&#039;une archive .tgz&lt;br /&gt;
-extraire et lire le fichier d&#039;instruction.&lt;br /&gt;
-Il faut recompiler avec le noyau donc si souces du noyau absentes les rajouter&lt;br /&gt;
&amp;gt;rpm -Uvh kernel-largesmp-devel-2.6.9-78.0.1.EL.x86_64.rpm&lt;br /&gt;
-rajouter dkms si besoin&lt;br /&gt;
si ca se finit sans erreur verifier la version du driver qui doit etre 00.00.03.21&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
&lt;br /&gt;
..........................................................&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4939</id>
		<title>Infrastructure Stockage</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4939"/>
		<updated>2009-02-06T15:42:02Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Quelques commandes utilisées au CPPM */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Notes techniques concernant la configuration des serveurs de fichiers (RAID, partitions, filesystems)&lt;br /&gt;
&lt;br /&gt;
== Dell Serveur PE2950 et Baies MD1000 ==&lt;br /&gt;
&lt;br /&gt;
=== Généralités ===&lt;br /&gt;
&#039;&#039;&#039;Les serveurs sont équipés&#039;&#039;&#039; &lt;br /&gt;
*Une carte Controleur Raid Perc 6/i pour les disques internes (RAID 1 sur 2 disques)&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Contr%C3%B4leurs/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=403-10298&lt;br /&gt;
&lt;br /&gt;
*Deux carte controleurs Perc 6/e pour 2 baies externes:&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Mat%C3%A9riel_pour_entreprise/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=405-10775#Overview&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;2) La Baie MD1000&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
http://support.euro.dell.com/support/topics/topic.aspx/emea/shared/support/root/fr/product_support_central?~ck=ln&amp;amp;c=fr&amp;amp;l=fr&amp;amp;lnki=0&amp;amp;s=gen&amp;amp;SystemID=PWV_MD1000&lt;br /&gt;
&lt;br /&gt;
=== Choix du RAID ===&lt;br /&gt;
&lt;br /&gt;
http://www.hardwaresecrets.com/article/314/3&lt;br /&gt;
&lt;br /&gt;
=== Virtual disks ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Filesystems ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Performances ===&lt;br /&gt;
http://www.delltechcenter.com/page/PERC6+with+MD1000+and+MD1120+Performance+Analysis+Report&lt;br /&gt;
http://www.dell.com/downloads/global/products/pvaul/en/PERC6_PerfWP_WMD1120.pdf&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Installation de Dell OpenManage ===&lt;br /&gt;
http://support.euro.dell.com/support/downloads/download.aspx?c=fr&amp;amp;l=fr&amp;amp;s=gen&amp;amp;releaseid=R198963&amp;amp;SystemID=PWV_MD1000&amp;amp;servicetag=&amp;amp;os=LIN4&amp;amp;osl=fr&amp;amp;deviceid=2331&amp;amp;devlib=0&amp;amp;typecnt=0&amp;amp;vercnt=4&amp;amp;catid=-1&amp;amp;impid=-1&amp;amp;formatcnt=2&amp;amp;libid=36&amp;amp;fileid=275306&lt;br /&gt;
&lt;br /&gt;
JM:&lt;br /&gt;
On peut installer à partir du CD bien sûr mais (si on est sûr que le système est supporté)&lt;br /&gt;
il semble qu&#039;on puisse installer la suite Dell Openmanage via Quattor en intégrant les&lt;br /&gt;
RPMS dans un repository et ajoutant quelques librairies i386 nécessaires.&lt;br /&gt;
&lt;br /&gt;
===Quelques commandes utilisées au CPPM ===&lt;br /&gt;
&lt;br /&gt;
1. Se debarasser d&#039;une configuration &amp;quot;foreign&amp;quot; dans le cas ou un disque a ete enleve brutalement et reintroduit&lt;br /&gt;
Dans OMSA (OpenManager? Server Administration) installe sur le serveur utilise une commande ligne&lt;br /&gt;
&lt;br /&gt;
&amp;gt;omconfig storage controller action=clearforeignconfig controller=0&lt;br /&gt;
&lt;br /&gt;
........................................................................................................&lt;br /&gt;
&lt;br /&gt;
Mise a jour du firmware de la baie&lt;br /&gt;
Aller chercher le fichier d&#039;update chez DELL (support.dell.com)&lt;br /&gt;
le fichier est un shell executable de la forme RAIDxxxxxx.BIN&lt;br /&gt;
lire la partie instruction(how to) par sh RAIDxxxxxx.BIN --version&lt;br /&gt;
puis l&#039;executer en prenant les precautions pour qu&#039;il n&#039;y ait aucune activite sur la baie&lt;br /&gt;
sh RAIDxxxxxx.BIN&lt;br /&gt;
&lt;br /&gt;
.................................................&lt;br /&gt;
&lt;br /&gt;
Mise a jour du driver pour le controlleur Megaraid_SAS&lt;br /&gt;
- verification de la version du driver&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
-recuperation du driver chez Dell sous forme d&#039;une archive .tgz&lt;br /&gt;
-extraire et lire le fichier d&#039;instruction.&lt;br /&gt;
-Il faut recompiler avec le noyau donc si souces du noyau absentes les rajouter&lt;br /&gt;
&amp;gt;rpm -Uvh kernel-largesmp-devel-2.6.9-78.0.1.EL.x86_64.rpm&lt;br /&gt;
-rajouter dkms si besoin&lt;br /&gt;
si ca se finit sans erreur verifier la version du driver qui doit etre 00.00.03.21&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
&lt;br /&gt;
..........................................................&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4938</id>
		<title>Infrastructure Stockage</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Infrastructure_Stockage&amp;diff=4938"/>
		<updated>2009-02-06T15:40:38Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Dell Serveur PE2950 et Baies MD1000 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Notes techniques concernant la configuration des serveurs de fichiers (RAID, partitions, filesystems)&lt;br /&gt;
&lt;br /&gt;
== Dell Serveur PE2950 et Baies MD1000 ==&lt;br /&gt;
&lt;br /&gt;
=== Généralités ===&lt;br /&gt;
&#039;&#039;&#039;Les serveurs sont équipés&#039;&#039;&#039; &lt;br /&gt;
*Une carte Controleur Raid Perc 6/i pour les disques internes (RAID 1 sur 2 disques)&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Contr%C3%B4leurs/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=403-10298&lt;br /&gt;
&lt;br /&gt;
*Deux carte controleurs Perc 6/e pour 2 baies externes:&lt;br /&gt;
http://accessories.euro.dell.com/sna/products/Mat%C3%A9riel_pour_entreprise/productdetail.aspx?c=fr&amp;amp;l=fr&amp;amp;cs=frdhs1&amp;amp;sku=405-10775#Overview&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;2) La Baie MD1000&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
http://support.euro.dell.com/support/topics/topic.aspx/emea/shared/support/root/fr/product_support_central?~ck=ln&amp;amp;c=fr&amp;amp;l=fr&amp;amp;lnki=0&amp;amp;s=gen&amp;amp;SystemID=PWV_MD1000&lt;br /&gt;
&lt;br /&gt;
=== Choix du RAID ===&lt;br /&gt;
&lt;br /&gt;
http://www.hardwaresecrets.com/article/314/3&lt;br /&gt;
&lt;br /&gt;
=== Virtual disks ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Filesystems ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Performances ===&lt;br /&gt;
http://www.delltechcenter.com/page/PERC6+with+MD1000+and+MD1120+Performance+Analysis+Report&lt;br /&gt;
http://www.dell.com/downloads/global/products/pvaul/en/PERC6_PerfWP_WMD1120.pdf&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Installation de Dell OpenManage ===&lt;br /&gt;
http://support.euro.dell.com/support/downloads/download.aspx?c=fr&amp;amp;l=fr&amp;amp;s=gen&amp;amp;releaseid=R198963&amp;amp;SystemID=PWV_MD1000&amp;amp;servicetag=&amp;amp;os=LIN4&amp;amp;osl=fr&amp;amp;deviceid=2331&amp;amp;devlib=0&amp;amp;typecnt=0&amp;amp;vercnt=4&amp;amp;catid=-1&amp;amp;impid=-1&amp;amp;formatcnt=2&amp;amp;libid=36&amp;amp;fileid=275306&lt;br /&gt;
&lt;br /&gt;
JM:&lt;br /&gt;
On peut installer à partir du CD bien sûr mais (si on est sûr que le système est supporté)&lt;br /&gt;
il semble qu&#039;on puisse installer la suite Dell Openmanage via Quattor en intégrant les&lt;br /&gt;
RPMS dans un repository et ajoutant quelques librairies i386 nécessaires.&lt;br /&gt;
&lt;br /&gt;
===Quelques commandes utilisées au CPPM ===&lt;br /&gt;
&lt;br /&gt;
1. Se debarasser d&#039;une configuration &amp;quot;foreign&amp;quot; dans le cas ou un disque a ete enleve brutalement et reintroduit&lt;br /&gt;
Dans OMSA (OpenManager? Server Administration) installe sur le serveur utilise une commande ligne&lt;br /&gt;
&lt;br /&gt;
&amp;gt;omconfig storage controller action=clearforeignconfig controller=0&lt;br /&gt;
..............................................................................................................&lt;br /&gt;
Mise a jour du firmware de la baie&lt;br /&gt;
Aller chercher le fichier d&#039;update chez DELL (support.dell.com)&lt;br /&gt;
le fichier est un shell executable de la forme RAIDxxxxxx.BIN&lt;br /&gt;
lire la partie instruction(how to) par sh RAIDxxxxxx.BIN --version&lt;br /&gt;
puis l&#039;executer en prenant les precautions pour qu&#039;il n&#039;y ait aucune activite sur la baie&lt;br /&gt;
sh RAIDxxxxxx.BIN&lt;br /&gt;
.................................................&lt;br /&gt;
Mise a jour du driver pour le controlleur Megaraid_SAS&lt;br /&gt;
- verification de la version du driver&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
-recuperation du driver chez Dell sous forme d&#039;une archive .tgz&lt;br /&gt;
-extraire et lire le fichier d&#039;instruction.&lt;br /&gt;
-Il faut recompiler avec le noyau donc si souces du noyau absentes les rajouter&lt;br /&gt;
&amp;gt;rpm -Uvh kernel-largesmp-devel-2.6.9-78.0.1.EL.x86_64.rpm&lt;br /&gt;
-rajouter dkms si besoin&lt;br /&gt;
si ca se finit sans erreur verifier la version du driver qui doit etre 00.00.03.21&lt;br /&gt;
&amp;gt;modinfo megaraid_sas&lt;br /&gt;
&lt;br /&gt;
..........................................................&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Atlas:Analysis_ST_2009_Errors&amp;diff=4908</id>
		<title>Atlas:Analysis ST 2009 Errors</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Atlas:Analysis_ST_2009_Errors&amp;diff=4908"/>
		<updated>2009-01-30T11:20:33Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Comments and Errors follow-up */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;30.01.09&lt;br /&gt;
&lt;br /&gt;
== Comments and Errors follow-up ==&lt;br /&gt;
*http://gangarobot.cern.ch/st/test_124/&lt;br /&gt;
*http://gangarobot.cern.ch/st/test_125/&lt;br /&gt;
&#039;&#039;&#039;Note that ATLAS Production was ON on the FR-Cloud on January 29&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* IN2P3-LPC_MCDISK: f(w)   - Errors due to the load induced by MC production running at that time. Then ST tests jobs (2 x 50 jobs added)were aborted with Logged Reason by wms &amp;lt;br&amp;gt;&lt;br /&gt;
- Got a job held event, reason: Unspecified gridmanager error &amp;lt;br&amp;gt;&lt;br /&gt;
- Job got an error while in the CondorG queue.&amp;lt;br&amp;gt;&lt;br /&gt;
The submission to the batch system has failed because the &#039;&#039;&#039;maximum number of jobs accepted in queue by the site was reached &#039;&#039;&#039; &amp;lt;br&amp;gt;&lt;br /&gt;
- queue atlas max_queuable = 200 in the batch system, Attributes &#039;GlueCEPolicyMaxTotalJobs&#039; on the queue&lt;br /&gt;
 Jan 29 23:54:46 clrlcgce03 gridinfo: [25608-30993] Job 1233269583:&lt;br /&gt;
 lcgpbs:internal_ FAILED during submission to batch system lcgpbs&lt;br /&gt;
 01/29/2009 23:55:07;0080;PBS_Server;Req;req_reject;Reject reply code=15046(Maximum&lt;br /&gt;
 number of jobs already in queue), aux=0..&lt;br /&gt;
&lt;br /&gt;
*IN2P3-CPPM_MCDISK:  The same problem has in previous test. Jobs running forever with error .&amp;quot;send2dpm: DP000 - disk pool manager not running on marwn04.in2p3.fr &amp;quot;. This arrive for 13 jobs, all starts running nearly at the same time Thu Jan 29 22:37:53 and run in error around Jan 30 00:21. I have put two of this stdout, stderr there &lt;br /&gt;
http://marwww.in2p3.fr/~knoops/752629.marce01.in2p3.fr/&lt;br /&gt;
http://marwww.in2p3.fr/~knoops/752631.marce01.in2p3.fr/&lt;br /&gt;
&lt;br /&gt;
The load of the local DPM server was around 9 at that time.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Atlas:Analysis_ST_2009_Errors&amp;diff=4907</id>
		<title>Atlas:Analysis ST 2009 Errors</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Atlas:Analysis_ST_2009_Errors&amp;diff=4907"/>
		<updated>2009-01-30T11:18:22Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: /* Comments and Errors follow-up */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;30.01.09&lt;br /&gt;
&lt;br /&gt;
== Comments and Errors follow-up ==&lt;br /&gt;
*http://gangarobot.cern.ch/st/test_124/&lt;br /&gt;
*http://gangarobot.cern.ch/st/test_125/&lt;br /&gt;
&#039;&#039;&#039;Note that ATLAS Production was ON on the FR-Cloud on January 29&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* IN2P3-LPC_MCDISK: f(w)   - Errors due to the load induced by MC production running at that time. Then ST tests jobs (2 x 50 jobs added)were aborted with Logged Reason by wms &amp;lt;br&amp;gt;&lt;br /&gt;
- Got a job held event, reason: Unspecified gridmanager error &amp;lt;br&amp;gt;&lt;br /&gt;
- Job got an error while in the CondorG queue.&amp;lt;br&amp;gt;&lt;br /&gt;
The submission to the batch system has failed because the &#039;&#039;&#039;maximum number of jobs accepted in queue by the site was reached &#039;&#039;&#039; &amp;lt;br&amp;gt;&lt;br /&gt;
- queue atlas max_queuable = 200 in the batch system, Attributes &#039;GlueCEPolicyMaxTotalJobs&#039; on the queue&lt;br /&gt;
 Jan 29 23:54:46 clrlcgce03 gridinfo: [25608-30993] Job 1233269583:&lt;br /&gt;
 lcgpbs:internal_ FAILED during submission to batch system lcgpbs&lt;br /&gt;
 01/29/2009 23:55:07;0080;PBS_Server;Req;req_reject;Reject reply code=15046(Maximum&lt;br /&gt;
 number of jobs already in queue), aux=0..&lt;br /&gt;
&lt;br /&gt;
*IN2P3-CPPM_MCDISK:  The same problem has in previous test. Job running forever with error .&amp;quot;send2dpm: DP000 - disk pool manager not running on marwn04.in2p3.fr &amp;quot;. This arrive for 13 jobs, all starts running nearly at the same time Thu Jan 29 22:37:53 and run in error around Jan 30 00:21. I have put two of this stdout, stderr there &lt;br /&gt;
http://marwww.in2p3.fr/~knoops/752629.marce01.in2p3.fr/&lt;br /&gt;
http://marwww.in2p3.fr/~knoops/752631.marce01.in2p3.fr/&lt;br /&gt;
&lt;br /&gt;
The load of the local DPM server was around 9 at that time.&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=CPU-Benches&amp;diff=4207</id>
		<title>CPU-Benches</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=CPU-Benches&amp;diff=4207"/>
		<updated>2008-09-16T13:19:11Z</updated>

		<summary type="html">&lt;p&gt;Edith Knoops: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Les sites français peuvent avoir accès à la suite Spec2000 (license disponible pour le projet).  &lt;br /&gt;
&lt;br /&gt;
Des tests de puissance des CPU ont été réalisés au LAPP (Eric Fede) et à Subatech (Jean-Michel Barbet) avec&lt;br /&gt;
la suite SPEC CPU2000 suivant la méthodologie recommandée : http://hepix.caspur.it/processors/&lt;br /&gt;
Ajout des tests au CPPM (Edith Knoops)&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
Tests réalisés par Jean-Michel :&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux V4.3 i386, gcc v3.4.5&lt;br /&gt;
&lt;br /&gt;
Les autres conditions de test sont disponibles sur demande. A noter que les tests ont été réalisés sur des machines en configuration opérationnelles pour la grille (avec tous les daemons).&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN KSI2K/core [1] !! FZK KSI2K/core [3] !! CERN KSI2K/core corrigé [2] &lt;br /&gt;
|-&lt;br /&gt;
| Dell 5160 || Woodcrest 3.00GHz || 4 || 8Go || 1409 || 1830  ||  2113&lt;br /&gt;
|-&lt;br /&gt;
| IBM || Clovertown 2.33GHz || 8 || 16Go || 979 || 1875 || 1468&lt;br /&gt;
|-&lt;br /&gt;
| Dell Optiplex || Pentium4 3.20GHz || 1 || 2Go || 872 || 1128 ||  1308 &lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Dell PowerEdge 1955 Woodcrest 5160 : http://www.spec.org/osg/cpu2000/results/res2006q3/cpu2000-20060626-06298.html&lt;br /&gt;
&lt;br /&gt;
IBM 3550 Woodcrest 5160 : http://www.spec.org/osg/cpu2000/results/res2006q3/cpu2000-20060623-06219.html&lt;br /&gt;
&lt;br /&gt;
IBM 3350 Clovertown E5345 : http://www.spec.org/osg/cpu2000/results/res2006q4/cpu2000-20061113-07918.html&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
Tests réalisés au LAPP (eric) :&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux V3.08 i386, gcc v3.4.3&lt;br /&gt;
&lt;br /&gt;
A noter que les tests ont été réalisés sur des machines dont tous les services non nécéssaires étaient desactivés&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN KSI2K/core [1] !! FZK KSI2K/core [3]!! CERN KSI2K/core corrigé [2] &lt;br /&gt;
|-&lt;br /&gt;
| HP BL 460c || Woodcrest 2.66GHz || 4 || 8Go || 1367 || 1665 || 2050   &lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux V4.5 x86_64, gcc v3.4&lt;br /&gt;
&lt;br /&gt;
A noter que les tests ont été réalisés sur des machines dont tous les services non nécéssaires étaient desactivés. Un tuning &amp;quot;simple&amp;quot; au niveau du bios donne des disparités dans les résultats des bench qui depassent les 10 %.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN KSI2K/core [1] !! FZK KSI2K/core [3]!! CERN KSI2K/core corrigé [2]&lt;br /&gt;
|-&lt;br /&gt;
| HP BL 460c || Woodcrest 2.66GHz || 4 || 8Go || 1485 || 1592 || 2227  &lt;br /&gt;
|-&lt;br /&gt;
| HP BL 460c || Clovertown 2.33GHz || 8 || 16Go || 1225 || x || 1837 &lt;br /&gt;
|-&lt;br /&gt;
| DELL 1950 || Intel 5335 2GHz || 8 || 8Go || 1060 || 1139 || 1590&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[1] : Moyenne de 3 exécutions successives avec les optimisations CERN, chaque exécution démarrant un benchmark CPU2000 par CPU core. &lt;br /&gt;
&lt;br /&gt;
[2] : Correction : La valeur moyenne ci-dessus + 50%. C&#039;est la valeur à publier via le système d&#039;information de la grille.&lt;br /&gt;
&lt;br /&gt;
[3] : Une exécution unique avec les optimisations FZK à titre indicatif.&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
Tests réalisés au CPPM  (Edith) :&lt;br /&gt;
&lt;br /&gt;
Scientific-Linux 4.6 x86_64, gcc v3.4.6&lt;br /&gt;
&lt;br /&gt;
A noter que les tests ont été réalisés sur des machines dont tous les services non nécéssaires étaient desactivés&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center&amp;quot;  border=&amp;quot;1&amp;quot; cellpadding=&amp;quot;5&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; |  Machine !! CPU !! Nb cores !! Mémoire RAM !! CERN KSI2K/core  !! FZK KSI2K/core !! CERN32 KSI2K/core || CERN KSI2K/core corrigé &lt;br /&gt;
|-&lt;br /&gt;
| HP DL145 || Opteron 250  2.4Ghz || 2 || 4Go || 1149 || 1278 || 972 || 1725   &lt;br /&gt;
|-&lt;br /&gt;
| SUN      || Opteron 250  2.4Ghz || 2 || 4Go || 1173 || 1298 || 988  || 1760&lt;br /&gt;
|-&lt;br /&gt;
| HP DL145G2 || Opteron 275 2.2 Ghz || 4 ||6Go || 981 || 1087 ||  857  || 1471&lt;br /&gt;
|-&lt;br /&gt;
| DELL       || Opteron 2218 2.6 Ghz || 4 || 8Go || 1199 || 1073 ||1045 || 1798&lt;br /&gt;
|-&lt;br /&gt;
| DELL       || Xeon E5420 2.5Ghz ||  8 || 16 Go || 1418 ||1528 || x ||2128&lt;br /&gt;
&lt;br /&gt;
|}&lt;/div&gt;</summary>
		<author><name>Edith Knoops</name></author>
	</entry>
</feed>