Difference between revisions of "Tier 2:CPPM"

Un article de lcgwiki.
Jump to: navigation, search
(CPPM Marseille)
M
 
(46 intermediate revisions by 4 users not shown)
Ligne 1: Ligne 1:
 +
[[image:CPPM_JPG_small.jpg]]
 +
*Responsable scientifique : Arnaud Duperrin
 +
*Responsable technique : Edith Knoops
 +
*Autres personnes:
 +
**Site : Carlos Carranza, Thierry Mouthuy
 +
**ATLAS: Emmanuel Le Guirriec
 +
**LHCB : Andrei Tsaregorodtsev
  
=== CPPM Marseille ===
+
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG
Responsable scientifique : Chris Bee
 
  
Responsable technique : Thierry Mouthuy
+
Un projet M3AMU en collaboration avec le mesocentre de Marseille  est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l'ordre de 3-4 PO.
  
Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.
+
<b>Pour le moment le site est équipé </b>de :
 +
* 98 serveurs de calcul pour un total de 1920 coeurs
 +
en SL6 avec un scheduler Torque/maui
  
La puissance calcul souhaitée est de 200 KSi2K en 2007-2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.
+
<b>L'espace de stockage est un serveur DPM</b>, séparé en :
 +
* marsedpm : Maître DPM.
 +
* 1,4 Po réparti sur 22 serveurs de disques connecté en 10 Gbps au réseau local.
 +
Données accessibles avec srm,gsiftp,xroot,dav
  
Par le moment le site est équipé de 32 serveurs bi-processeus (Opteron 2.2 et 2.4 GHz) avec 4 GO de mémoire, soit 64 noeud de calcul. L'espace de stockage est de 1.2 TO sur un serveur NFS.
 
  
Les VO supportées sont : Atlas, LHCb, Dzero (D0), Hone (H1), Biomed, Egeode, Esr, Dteam.
 
  
les statistiques d'utilisation sont disponibles sur le site : http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/
+
<b>Réseau</b> : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater
 +
 
 +
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
 +
<br><b>Administrator contact</b> : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]
 +
 
 +
<hr>
 +
*LCG Grid Operations Centre's entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&object_id=155&grid_id=0 IN2P3-CPPM] ''(access granted by LCG user certificate)''
 +
*Supported LHC VOs: Atlas, LHCb
 +
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero
 +
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]

Latest revision as of 11:46, 11 janvier 2022

CPPM JPG small.jpg

  • Responsable scientifique : Arnaud Duperrin
  • Responsable technique : Edith Knoops
  • Autres personnes:
    • Site : Carlos Carranza, Thierry Mouthuy
    • ATLAS: Emmanuel Le Guirriec
    • LHCB : Andrei Tsaregorodtsev

Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG

Un projet M3AMU en collaboration avec le mesocentre de Marseille est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l'ordre de 3-4 PO.

Pour le moment le site est équipé de :

  • 98 serveurs de calcul pour un total de 1920 coeurs

en SL6 avec un scheduler Torque/maui

L'espace de stockage est un serveur DPM, séparé en :

  • marsedpm : Maître DPM.
  • 1,4 Po réparti sur 22 serveurs de disques connecté en 10 Gbps au réseau local.

Données accessibles avec srm,gsiftp,xroot,dav


Réseau : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater

Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
Administrator contact : gridadmin@cppm.in2p3.fr