Tier 2:CPPM: Difference between revisions

Un article de lcgwiki.
Jump to navigation Jump to search
Mouthuy (talk | contribs)
No edit summary
No edit summary
Ligne 3: Ligne 3:
*Responsable technique : Edith Knoops
*Responsable technique : Edith Knoops
*Autres personnes:
*Autres personnes:
**Site : Carlos Carranza, Thierry Mouthuy, Michel Ricard
**Site : Carlos Carranza, Thierry Mouthuy
**ATLAS: Emmanuel Le Guirriec
**ATLAS: Emmanuel Le Guirriec
**LHCB : Andrei Tsaregorodtsev
**LHCB : Andrei Tsaregorodtsev
Ligne 9: Ligne 9:
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG
Le CPPM a installé en ses murs un noeud de calcul  intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG


Un projet de grille de campus (LuminyGrid) est en cours d'étude. Il vise à mettre en ligne environ 2000 coeurs de calcul et un espace de stockage de l'ordre de 1PO.
Un projet M3AMU en collaboration avec le mesocentre de Marseille  est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l'ordre de 3-4 PO.


<b>Pour le moment le site est équipé </b>de :  
<b>Pour le moment le site est équipé </b>de :  
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire
* 98 serveurs de calcul pour un total de 2000 coeurs
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire
en SL6 avec un scheduler Torque/maui
* 11 serveurs (Xeon X5650 bi-pro hexa-coeurs) avec 48 GO de mémoire
* 5 serveurs C6100 (Xeon X5650 quatre * bi-pro hexa-coeurs 48 GO de mémoire)
soit 970 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles.


<b>L'espace de stockage est un serveur DPM</b>, séparé en :
<b>L'espace de stockage est un serveur DPM</b>, séparé en :
* marsedpm : Maître DPM.
* marsedpm : Maître DPM.
* Deux baies MD1000 de 15 disques de 1 TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps
* 1Po réparti sur 20 serveurs de disques connecté en 10 Gbps au réseau local.
* 23 serveurs R510 avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.
Données accessibles avec srm,gsiftp,xroot,dav


<b>Le site dispose également </b>:
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr
* une interface utilisateur : marui.in2p3.fr


<b>Réseau</b> : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater
 
<b>Réseau</b> : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater


Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid

Version du 13:56, 2 septembre 2016

  • Responsable scientifique : François Touchard
  • Responsable technique : Edith Knoops
  • Autres personnes:
    • Site : Carlos Carranza, Thierry Mouthuy
    • ATLAS: Emmanuel Le Guirriec
    • LHCB : Andrei Tsaregorodtsev

Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG

Un projet M3AMU en collaboration avec le mesocentre de Marseille est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l'ordre de 3-4 PO.

Pour le moment le site est équipé de :

  • 98 serveurs de calcul pour un total de 2000 coeurs

en SL6 avec un scheduler Torque/maui

L'espace de stockage est un serveur DPM, séparé en :

  • marsedpm : Maître DPM.
  • 1Po réparti sur 20 serveurs de disques connecté en 10 Gbps au réseau local.

Données accessibles avec srm,gsiftp,xroot,dav


Réseau : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater

Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
Administrator contact : gridadmin@cppm.in2p3.fr