Tier 2:CPPM: Difference between revisions

Un article de lcgwiki.
Jump to navigation Jump to search
Mouthuy (talk | contribs)
MNo edit summary
MNo edit summary
 
(37 intermediate revisions by 4 users not shown)
Ligne 1: Ligne 1:
[[image:CPPM.gif]]
[[image:CPPM_JPG_small.jpg]]
*Responsable scientifique : Chris Bee
*Responsable scientifique : Arnaud Duperrin
*Responsable technique : Thierry Mouthuy
*Responsable technique : Edith Knoops
*Autres personnes:
**Site : Carlos Carranza, Thierry Mouthuy
**ATLAS: Emmanuel Le Guirriec
**LHCB : Andrei Tsaregorodtsev


Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.
Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG


La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.
Un projet M3AMU en collaboration avec le mesocentre de Marseille  est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l'ordre de 3-4 PO.


Par le moment le site est équipé de :
<b>Pour le moment le site est équipé </b>de :  
* 16 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire
* 98 serveurs de calcul pour un total de 1920 coeurs
* 3 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 4 GO de mémoire (3 coeurs activés)
en SL6 avec un scheduler Torque/maui
* 12 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (3 coeurs activés)
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire
soit 117 noeuds de calcul. Les noeuds de calcul sont installés en SL4 avec les librairies compatibles pour SL3.


L'espace de stockage est un serveur DPM, séparé en 3 serveurs :
<b>L'espace de stockage est un serveur DPM</b>, séparé en :
* sedpm : Maitre DPM avec 300 G
* marsedpm : Maître DPM.
* marseillese01 : 1.4 T
* 1,4 Po réparti sur 22 serveurs de disques connecté en 10 Gbps au réseau local.
* joe : baie de disques avec des espaces communs, de groupe et réservés. L'espace utile total est de l'ordre de 20 T.
Données accessibles avec srm,gsiftp,xroot,dav


Le site dispose également d'un "resources broker" et d'un serveur VOMS (pour la VO CPPM).


*LCG Grid Operations Centre's entry for this site: [https://goc.gridops.org/site/list?id=143 IN2P3-CPPM] ''(access granted by LCG user certficate)''
 
*Supported LHC VOs: Atlas,LHCb
<b>Réseau</b> : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater
 
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
<br><b>Administrator contact</b> : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr]
 
<hr>
*LCG Grid Operations Centre's entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&object_id=155&grid_id=0 IN2P3-CPPM] ''(access granted by LCG user certificate)''
*Supported LHC VOs: Atlas, LHCb
*Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM]

Latest revision as of 12:46, 11 janvier 2022

  • Responsable scientifique : Arnaud Duperrin
  • Responsable technique : Edith Knoops
  • Autres personnes:
    • Site : Carlos Carranza, Thierry Mouthuy
    • ATLAS: Emmanuel Le Guirriec
    • LHCB : Andrei Tsaregorodtsev

Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG

Un projet M3AMU en collaboration avec le mesocentre de Marseille est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l'ordre de 3-4 PO.

Pour le moment le site est équipé de :

  • 98 serveurs de calcul pour un total de 1920 coeurs

en SL6 avec un scheduler Torque/maui

L'espace de stockage est un serveur DPM, séparé en :

  • marsedpm : Maître DPM.
  • 1,4 Po réparti sur 22 serveurs de disques connecté en 10 Gbps au réseau local.

Données accessibles avec srm,gsiftp,xroot,dav


Réseau : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater

Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
Administrator contact : gridadmin@cppm.in2p3.fr