Difference between revisions of "Tier 2:CPPM"

Un article de lcgwiki.
Jump to: navigation, search
M
Ligne 17: Ligne 17:
 
* marsedpm : Maitre DPM avec 300 G en lecture seulement
 
* marsedpm : Maitre DPM avec 300 G en lecture seulement
 
* marse01 : 1.4 T non redondé en lecture seulement
 
* marse01 : 1.4 T non redondé en lecture seulement
* marjoe : baie de disques avec des espaces communs, de groupe et réservés. L'espace utile total est de l'ordre de 30 T.
+
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L'espace utile total est de l'ordre de 30 T. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps
 +
* marjack : Baie de 30 disques de 1T brut, en cours d'installation. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps
  
 
<b>Le site dispose également </b>:
 
<b>Le site dispose également </b>:
 
* un resources broker : marbroker.in2p3.fr  
 
* un resources broker : marbroker.in2p3.fr  
 +
* Un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr
 
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr
 
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr
 
* une interface utilisateur : marui.in2p3.fr
 
* une interface utilisateur : marui.in2p3.fr

Version du 16:52, 14 janvier 2009

CPPM.gif

  • Responsable scientifique : Chris Bee
  • Responsable technique : Thierry Mouthuy

Le CPPM souhaite installer en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.

La puissance calcul souhaitée est de 200 KSi2K en 2008 avec une capacité de stockage estimée à 25 TO. Cette puissance devra augmenter par la suite pour arriver vers 2010 à 400 KSi2K et 50 TO de données.

Pour le moment le site est équipé de :

  • 10 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire
  • 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés)
  • 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire
  • 30 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire

soit 360 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles.

L'espace de stockage est un serveur DPM, séparé en 3 serveurs :

  • marsedpm : Maitre DPM avec 300 G en lecture seulement
  • marse01 : 1.4 T non redondé en lecture seulement
  • marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L'espace utile total est de l'ordre de 30 T. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps
  • marjack : Baie de 30 disques de 1T brut, en cours d'installation. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps

Le site dispose également :

  • un resources broker : marbroker.in2p3.fr
  • Un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr
  • un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr
  • une interface utilisateur : marui.in2p3.fr

Réseau : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater

Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
Administrator contact : gridadmin@cppm.in2p3.fr


  • LCG Grid Operations Centre's entry for this site: IN2P3-CPPM (access granted by LCG user certificate)
  • Supported LHC VOs: Atlas,LHCb
  • Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam
  • LCG Information System Monitor for this site: IN2P3-CPPM