<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://lcg.in2p3.fr/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mouthuy</id>
	<title>lcgwiki - Contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://lcg.in2p3.fr/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mouthuy"/>
	<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/Special:Contributions/Mouthuy"/>
	<updated>2026-04-15T18:39:48Z</updated>
	<subtitle>Contributions</subtitle>
	<generator>MediaWiki 1.43.1</generator>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8057</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8057"/>
		<updated>2017-02-07T14:03:11Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM_JPG_small.jpg]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
**Site : Carlos Carranza, Thierry Mouthuy&lt;br /&gt;
**ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
**LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet M3AMU en collaboration avec le mesocentre de Marseille  est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3-4 PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de : &lt;br /&gt;
* 98 serveurs de calcul pour un total de 1920 coeurs&lt;br /&gt;
en SL6 avec un scheduler Torque/maui&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en :&lt;br /&gt;
* marsedpm : Maître DPM.&lt;br /&gt;
* 1,4 Po réparti sur 22 serveurs de disques connecté en 10 Gbps au réseau local.&lt;br /&gt;
Données accessibles avec srm,gsiftp,xroot,dav &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8056</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8056"/>
		<updated>2017-02-07T13:41:56Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM_JPG_small.jpg]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
**Site : Carlos Carranza, Thierry Mouthuy&lt;br /&gt;
**ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
**LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet M3AMU en collaboration avec le mesocentre de Marseille  est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3-4 PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de : &lt;br /&gt;
* 98 serveurs de calcul pour un total de 2000 coeurs&lt;br /&gt;
en SL6 avec un scheduler Torque/maui&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en :&lt;br /&gt;
* marsedpm : Maître DPM.&lt;br /&gt;
* 1,3 Po réparti sur 20 serveurs de disques connecté en 10 Gbps au réseau local.&lt;br /&gt;
Données accessibles avec srm,gsiftp,xroot,dav &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=File:CPPM_JPG_small.jpg&amp;diff=8055</id>
		<title>File:CPPM JPG small.jpg</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=File:CPPM_JPG_small.jpg&amp;diff=8055"/>
		<updated>2017-02-07T13:41:19Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8054</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=8054"/>
		<updated>2017-02-07T13:39:49Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM_JPG.jpg]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
**Site : Carlos Carranza, Thierry Mouthuy&lt;br /&gt;
**ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
**LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet M3AMU en collaboration avec le mesocentre de Marseille  est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3-4 PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de : &lt;br /&gt;
* 98 serveurs de calcul pour un total de 2000 coeurs&lt;br /&gt;
en SL6 avec un scheduler Torque/maui&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en :&lt;br /&gt;
* marsedpm : Maître DPM.&lt;br /&gt;
* 1,3 Po réparti sur 20 serveurs de disques connecté en 10 Gbps au réseau local.&lt;br /&gt;
Données accessibles avec srm,gsiftp,xroot,dav &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=File:CPPM_JPG.jpg&amp;diff=8053</id>
		<title>File:CPPM JPG.jpg</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=File:CPPM_JPG.jpg&amp;diff=8053"/>
		<updated>2017-02-07T13:39:18Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=File:CPPMSmall.jpg&amp;diff=6366</id>
		<title>File:CPPMSmall.jpg</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=File:CPPMSmall.jpg&amp;diff=6366"/>
		<updated>2012-01-27T07:26:28Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6365</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6365"/>
		<updated>2012-01-27T07:26:00Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPMSmall.jpg]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
**Site : Carlos Carranza, Thierry Mouthuy, Michel Ricard&lt;br /&gt;
**ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
**LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 2000 coeurs de calcul et un espace de stockage de l&#039;ordre de 1PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de : &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
* 11 serveurs (Xeon X5650 bi-pro hexa-coeurs) avec 48 GO de mémoire&lt;br /&gt;
* 5 serveurs C6100 (Xeon X5650 quatre * bi-pro hexa-coeurs 48 GO de mémoire)&lt;br /&gt;
soit 970 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en :&lt;br /&gt;
* marsedpm : Maître DPM.&lt;br /&gt;
* Deux baies MD1000 de 15 disques de 1 TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps&lt;br /&gt;
* 23 serveurs R510 avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=File:CPPM.jpg&amp;diff=6364</id>
		<title>File:CPPM.jpg</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=File:CPPM.jpg&amp;diff=6364"/>
		<updated>2012-01-27T07:24:33Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: uploaded a new version of &amp;amp;quot;File:CPPM.jpg&amp;amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;CPPM Logo&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6363</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6363"/>
		<updated>2012-01-27T07:24:16Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.jpg]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
**Site : Carlos Carranza, Thierry Mouthuy, Michel Ricard&lt;br /&gt;
**ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
**LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 2000 coeurs de calcul et un espace de stockage de l&#039;ordre de 1PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de : &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
* 11 serveurs (Xeon X5650 bi-pro hexa-coeurs) avec 48 GO de mémoire&lt;br /&gt;
* 5 serveurs C6100 (Xeon X5650 quatre * bi-pro hexa-coeurs 48 GO de mémoire)&lt;br /&gt;
soit 970 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en :&lt;br /&gt;
* marsedpm : Maître DPM.&lt;br /&gt;
* Deux baies MD1000 de 15 disques de 1 TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps&lt;br /&gt;
* 23 serveurs R510 avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6362</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6362"/>
		<updated>2012-01-27T07:22:54Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
**Site : Carlos Carranza, Thierry Mouthuy, Michel Ricard&lt;br /&gt;
**ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
**LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 2000 coeurs de calcul et un espace de stockage de l&#039;ordre de 1PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de : &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
* 11 serveurs (Xeon X5650 bi-pro hexa-coeurs) avec 48 GO de mémoire&lt;br /&gt;
* 5 serveurs C6100 (Xeon X5650 quatre * bi-pro hexa-coeurs 48 GO de mémoire)&lt;br /&gt;
soit 970 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en :&lt;br /&gt;
* marsedpm : Maître DPM.&lt;br /&gt;
* Deux baies MD1000 de 15 disques de 1 TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps&lt;br /&gt;
* 23 serveurs R510 avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6361</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6361"/>
		<updated>2012-01-27T07:22:23Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
*Site : Carlos Carranza, Thierry Mouthuy, Michel Ricard&lt;br /&gt;
*ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
*LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 2000 coeurs de calcul et un espace de stockage de l&#039;ordre de 1PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de : &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
* 11 serveurs (Xeon X5650 bi-pro hexa-coeurs) avec 48 GO de mémoire&lt;br /&gt;
* 5 serveurs C6100 (Xeon X5650 quatre * bi-pro hexa-coeurs 48 GO de mémoire)&lt;br /&gt;
soit 970 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en :&lt;br /&gt;
* marsedpm : Maître DPM.&lt;br /&gt;
* Deux baies MD1000 de 15 disques de 1 TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps&lt;br /&gt;
* 23 serveurs R510 avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6324</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=6324"/>
		<updated>2011-12-05T15:00:39Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
*Site : Carlos Carranza, Thierry Mouthuy, Michel Ricard&lt;br /&gt;
*ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
*LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (3 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
* 11 serveurs (Xeon X5650 bi-pro hexa-coeurs) avec 48 GO de mémoire&lt;br /&gt;
* 3 serveurs C6100 (Xeon X5650 quatre * bi-pro hexa-coeurs 48 GO de mémoire)&lt;br /&gt;
soit 852 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 10 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1 TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps&lt;br /&gt;
* 22 serveurs avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/portal/index.php?Page_Type=View_Object&amp;amp;object_id=155&amp;amp;grid_id=0 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5894</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5894"/>
		<updated>2010-09-29T17:33:50Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : François Touchard&lt;br /&gt;
*Responsable technique : Edith Knoops&lt;br /&gt;
*Autres personnes:&lt;br /&gt;
*Site : Carlos Carranza, Thierry Mouthuy, Michel Ricard&lt;br /&gt;
*ATLAS: Emmanuel Le Guirriec&lt;br /&gt;
*LHCB : Andrei Tsaregorodtsev&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 8 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (3 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
* 11 serveur  (Xeon X5650   bi-pro hexa-coeurs) avec 48 GO de mémire&lt;br /&gt;
soit 645 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 10 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM.&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total pour la grille est de l&#039;ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps&lt;br /&gt;
* marbill : Connecté à un NETAPP capacité de 50 TO net. &lt;br /&gt;
* 6 serveurs  avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas, LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5558</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5558"/>
		<updated>2010-01-04T13:36:39Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
*Autres personnes: Carlos Carranza, Edith Knoops, Michel Ricard&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 8 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 45 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 476 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM.&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total pour la grille est de l&#039;ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5300</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5300"/>
		<updated>2009-07-11T11:09:26Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
*Autres personnes: Carlos Carranza, Edith Knoops, Michel Ricard&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 8 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 45 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 476 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM.&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total pour la grille est de l&#039;ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5299</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5299"/>
		<updated>2009-07-11T11:05:24Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l&#039;ordre de 3PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 8 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 45 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 476 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM.&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total pour la grille est de l&#039;ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5139</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5139"/>
		<updated>2009-04-20T07:36:15Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 3000 coeurs de calcul et un espace de stockage de l&#039;ordre de 2PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 9 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 30 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 358 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total pour la grille est de l&#039;ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr - cette machine sera bientôt arrêtée (mai 2009) !&lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5103</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=5103"/>
		<updated>2009-03-25T07:35:48Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM a installé en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
Un projet de grille de campus (LuminyGrid) est en cours d&#039;étude. Il vise à mettre en ligne environ 3000 coeurs de calcul et un espace de stockage de l&#039;ordre de 2PO.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 10 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 30 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 360 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total pour la grille est de l&#039;ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps.&lt;br /&gt;
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4665</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4665"/>
		<updated>2009-01-14T15:52:03Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 10 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 30 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 360 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps&lt;br /&gt;
* marjack : Baie de 30 disques de 1T brut, en cours d&#039;installation. Le serveur frontal est connecté au réseau local en mode &amp;quot;trunk&amp;quot; de 2x1Gbps&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* Un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr&lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4637</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4637"/>
		<updated>2008-12-19T10:41:50Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 10 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 30 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 360 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4636</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4636"/>
		<updated>2008-12-19T10:32:46Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 12 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 30 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 360 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4635</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4635"/>
		<updated>2008-12-19T10:31:15Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 12 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 20 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 360 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4154</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4154"/>
		<updated>2008-07-31T07:47:04Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 14 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 10 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 208 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4153</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4153"/>
		<updated>2008-07-31T07:45:49Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 14 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 10 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4152</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4152"/>
		<updated>2008-07-31T07:45:28Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 14 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 10 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4151</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4151"/>
		<updated>2008-07-31T07:45:00Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Pour le moment le site est équipé &amp;lt;/b&amp;gt;de :&lt;br /&gt;
* 14 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 10 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;L&#039;espace de stockage est un serveur DPM&amp;lt;/b&amp;gt;, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Le site dispose également &amp;lt;/b&amp;gt;:&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
&amp;lt;b&amp;gt;Administrator contact&amp;lt;/b&amp;gt; : [mailto:gridadmin@cppm.in2p3.fr]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4150</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4150"/>
		<updated>2008-07-31T07:43:42Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 14 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 10 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
L&#039;espace de stockage est un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également :&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Réseau&amp;lt;/b&amp;gt; : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
Administrator contact : gridadmin@cppm.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4149</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4149"/>
		<updated>2008-07-31T07:43:19Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 14 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 10 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
L&#039;espace de stockage est un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également :&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
Réseau : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
Administrator contact : gridadmin@cppm.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
&amp;quot;&amp;quot;&amp;lt;hr&amp;gt;&amp;quot;&amp;quot;&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4148</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4148"/>
		<updated>2008-07-31T07:42:52Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 14 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 10 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
L&#039;espace de stockage est un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également :&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
{Réseau} : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
Administrator contact : gridadmin@cppm.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4147</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4147"/>
		<updated>2008-07-31T07:42:29Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 14 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 10 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
L&#039;espace de stockage est un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également :&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
[Réseau] : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater&lt;br /&gt;
&lt;br /&gt;
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid&lt;br /&gt;
Administrator contact : gridadmin@cppm.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4146</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=4146"/>
		<updated>2008-07-31T07:37:48Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 14 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 10 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
L&#039;espace de stockage est un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* marsedpm : Maitre DPM avec 300 G en lecture seulement&lt;br /&gt;
* marse01 : 1.4 T non redondé en lecture seulement&lt;br /&gt;
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également :&lt;br /&gt;
* un resources broker : marbroker.in2p3.fr &lt;br /&gt;
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr&lt;br /&gt;
* une interface utilisateur : marui.in2p3.fr&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certificate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3502</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3502"/>
		<updated>2008-05-20T13:25:08Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 16 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 6 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
L&#039;espace de stockage est un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* sedpm : Maitre DPM avec 300 G&lt;br /&gt;
* marseillese01 : 1.4 T&lt;br /&gt;
* joe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 30 T.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également d&#039;un &amp;quot;resources broker&amp;quot; et d&#039;un serveur VOMS (pour la VO CPPM).&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certficate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3254</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3254"/>
		<updated>2007-12-19T07:39:45Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 16 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
* 6 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire&lt;br /&gt;
soit 180 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
L&#039;espace de stockage est un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* sedpm : Maitre DPM avec 300 G&lt;br /&gt;
* marseillese01 : 1.4 T&lt;br /&gt;
* joe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 20 T.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également d&#039;un &amp;quot;resources broker&amp;quot; et d&#039;un serveur VOMS (pour la VO CPPM).&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certficate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=French_Sites:Xmas&amp;diff=3243</id>
		<title>French Sites:Xmas</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=French_Sites:Xmas&amp;diff=3243"/>
		<updated>2007-12-18T14:24:42Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: /* Tiers-3 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__NOTOC__&lt;br /&gt;
== 2007-2008 Planning over Christmas for the french sites  ==&lt;br /&gt;
&lt;br /&gt;
Contact our favorite ROC : &amp;lt;span style=&amp;quot;color:#0000F0;&amp;quot;&amp;gt;grid-roc@cc.in2p3.fr&amp;lt;/span&amp;gt; &amp;lt;br&amp;gt;&lt;br /&gt;
Broadcast/publish informations from the CIC portal : &lt;br /&gt;
https://cic.in2p3.fr/index.php?section=rc&amp;amp;page=broadcast&lt;br /&gt;
&lt;br /&gt;
== Tier-1 ==&lt;br /&gt;
* CC-IN2P3 will be running as usual.&lt;br /&gt;
== Tiers-2 ==&lt;br /&gt;
* GRIF :&lt;br /&gt;
&lt;br /&gt;
* LAPP Annecy :&lt;br /&gt;
All ressources for sites IN2P3-LAPP will be available during Christmas period (from 22/12/2007 to 07/01/2008) with a minimal support.&lt;br /&gt;
&lt;br /&gt;
* LPC Clermont :&lt;br /&gt;
All ressources for sites IN2P3-LPC and AUVERGRID will be avaible normaly during Christmas period. The support for these sites will be minimal from  22/12/2007 at (GMT) until 07/01/2008 at 9h00(GMT)&lt;br /&gt;
&lt;br /&gt;
* Subatech : &lt;br /&gt;
All resources for site IN2P3-SUBATECH are available with minimal support between 24/12/2007 and 01/01/2008 included.&lt;br /&gt;
&lt;br /&gt;
== Tiers-3 ==&lt;br /&gt;
* CPPM : All ressources for site CPPM will be available during Christmas period (from 22/12/2007 to 07/01/2008) with a minimal support.&lt;br /&gt;
*&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3150</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3150"/>
		<updated>2007-11-23T11:23:07Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 16 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 3 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 4 GO de mémoire (3 coeurs activés)&lt;br /&gt;
* 12 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (3 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
soit 117 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
L&#039;espace de stockage est un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* sedpm : Maitre DPM avec 300 G&lt;br /&gt;
* marseillese01 : 1.4 T&lt;br /&gt;
* joe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 20 T.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également d&#039;un &amp;quot;resources broker&amp;quot; et d&#039;un serveur VOMS (pour la VO CPPM).&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certficate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3149</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3149"/>
		<updated>2007-11-23T11:22:52Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 16 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 3 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 4 GO de mémoire (3 coeurs activés)&lt;br /&gt;
* 12 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (3 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
soit 117 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. &lt;br /&gt;
&lt;br /&gt;
L&#039;espace de stockage est de un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* sedpm : Maitre DPM avec 300 G&lt;br /&gt;
* marseillese01 : 1.4 T&lt;br /&gt;
* joe : baie de disques avec des espaces communs, de groupe et réservés. L&#039;espace utile total est de l&#039;ordre de 20 T.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également d&#039;un &amp;quot;resources broker&amp;quot; et d&#039;un serveur VOMS (pour la VO CPPM).&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certficate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3074</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3074"/>
		<updated>2007-07-18T12:41:46Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 16 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 4 GO de mémoire (3 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
soit 117 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. L&#039;espace de stockage est de un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* sedpm : Maitre DPM avec 300 G&lt;br /&gt;
* marseillese01 : 1.4 T&lt;br /&gt;
* joe : baie de disques avec des espaces communs, de groupe et réservés.&lt;br /&gt;
&lt;br /&gt;
Le site dispose également d&#039;un &amp;quot;resources broker&amp;quot; et d&#039;un serveur VOMS (pour la VO CPPM).&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certficate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3073</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3073"/>
		<updated>2007-07-18T12:41:02Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
* 16 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 4 GO de mémoire (3 coeurs activés) &lt;br /&gt;
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
soit 117 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. L&#039;espace de stockage est de un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
* sedpm : Maitre DPM avec 300 G&lt;br /&gt;
* marseillese01 : 1.4 T&lt;br /&gt;
* joe : baie de disques avec des espaces communs, de groupe et réservés.&lt;br /&gt;
&lt;br /&gt;
 Le site dispose également d&#039;un &amp;quot;resources broker&amp;quot; et d&#039;un serveur VOMS (pour la VO CPPM).&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certficate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3072</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=3072"/>
		<updated>2007-07-18T12:40:24Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de :&lt;br /&gt;
- 16 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire &lt;br /&gt;
- 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 4 GO de mémoire (3 coeurs activés) &lt;br /&gt;
- 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire&lt;br /&gt;
soit 117 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. L&#039;espace de stockage est de un serveur DPM, séparé en 3 serveurs :&lt;br /&gt;
- sedpm : Maitre DPM avec 300 G&lt;br /&gt;
- marseillese01 : 1.4 T&lt;br /&gt;
- joe : baie de disques avec des espaces communs, de groupe et réservés.&lt;br /&gt;
&lt;br /&gt;
 Le site dispose également d&#039;un &amp;quot;resources broker&amp;quot; et d&#039;un serveur VOMS (pour la VO CPPM).&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certficate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
	<entry>
		<id>https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=2881</id>
		<title>Tier 2:CPPM</title>
		<link rel="alternate" type="text/html" href="https://lcg.in2p3.fr/index.php?title=Tier_2:CPPM&amp;diff=2881"/>
		<updated>2007-04-06T08:57:57Z</updated>

		<summary type="html">&lt;p&gt;Mouthuy: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[image:CPPM.gif]]&lt;br /&gt;
*Responsable scientifique : Chris Bee&lt;br /&gt;
*Responsable technique : Thierry Mouthuy&lt;br /&gt;
&lt;br /&gt;
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.&lt;br /&gt;
&lt;br /&gt;
La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.&lt;br /&gt;
&lt;br /&gt;
Par le moment le site est équipé de 32 serveurs bi-processeurs (Opteron 2.2 et 2.4 GHz) avec 4 GO de mémoire et de 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire, soit 104 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3. L&#039;espace de stockage est de 1.2 TO sur un SE classique, 300 GO sur un serveur DPM. Le site dispose également d&#039;un &amp;quot;resources broker&amp;quot; et d&#039;un serveur VOMS (pour la VO CPPM).&lt;br /&gt;
&lt;br /&gt;
*LCG Grid Operations Centre&#039;s entry for this site: [https://goc.grid-support.ac.uk/gridsite/gocdb2/index.php?siteSelect=143 IN2P3-CPPM] &#039;&#039;(access granted by LCG user certficate)&#039;&#039;&lt;br /&gt;
*Supported LHC VOs: Atlas,LHCb&lt;br /&gt;
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]&lt;/div&gt;</summary>
		<author><name>Mouthuy</name></author>
	</entry>
</feed>