Difference between revisions of "Tier 2:CPPM"
Ligne 9: | Ligne 9: | ||
Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG | Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG | ||
− | Un projet de grille de campus (LuminyGrid) est en cours d'étude. Il vise à mettre en ligne environ | + | Un projet de grille de campus (LuminyGrid) est en cours d'étude. Il vise à mettre en ligne environ 2000 coeurs de calcul et un espace de stockage de l'ordre de 1PO. |
− | <b>Pour le moment le site est équipé </b>de : | + | <b>Pour le moment le site est équipé </b>de : |
− | |||
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire | * 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire | ||
* 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire | * 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire | ||
* 11 serveurs (Xeon X5650 bi-pro hexa-coeurs) avec 48 GO de mémoire | * 11 serveurs (Xeon X5650 bi-pro hexa-coeurs) avec 48 GO de mémoire | ||
− | * | + | * 5 serveurs C6100 (Xeon X5650 quatre * bi-pro hexa-coeurs 48 GO de mémoire) |
− | soit | + | soit 970 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles. |
− | <b>L'espace de stockage est un serveur DPM</b>, séparé en | + | <b>L'espace de stockage est un serveur DPM</b>, séparé en : |
− | * marsedpm : | + | * marsedpm : Maître DPM. |
− | * | + | * Deux baies MD1000 de 15 disques de 1 TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps |
− | * | + | * 23 serveurs R510 avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local. |
<b>Le site dispose également </b>: | <b>Le site dispose également </b>: |
Version du 08:22, 27 janvier 2012
- Responsable scientifique : François Touchard
- Responsable technique : Edith Knoops
- Autres personnes:
- Site : Carlos Carranza, Thierry Mouthuy, Michel Ricard
- ATLAS: Emmanuel Le Guirriec
- LHCB : Andrei Tsaregorodtsev
Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG
Un projet de grille de campus (LuminyGrid) est en cours d'étude. Il vise à mettre en ligne environ 2000 coeurs de calcul et un espace de stockage de l'ordre de 1PO.
Pour le moment le site est équipé de :
- 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire
- 46 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire
- 11 serveurs (Xeon X5650 bi-pro hexa-coeurs) avec 48 GO de mémoire
- 5 serveurs C6100 (Xeon X5650 quatre * bi-pro hexa-coeurs 48 GO de mémoire)
soit 970 noeuds de calcul. Les noeuds de calcul sont installés en SL5-64 bits avec les librairies compatibles.
L'espace de stockage est un serveur DPM, séparé en :
- marsedpm : Maître DPM.
- Deux baies MD1000 de 15 disques de 1 TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en 10 Gbps
- 23 serveurs R510 avec chacun 12 disques de 2 TO, connecté en 10 Gbps au réseau local.
Le site dispose également :
- un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr
- un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr
- une interface utilisateur : marui.in2p3.fr
Réseau : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 1 Gbit/s vers Renater
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
Administrator contact : gridadmin@cppm.in2p3.fr
- LCG Grid Operations Centre's entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&object_id=155&grid_id=0 IN2P3-CPPM] (access granted by LCG user certificate)
- Supported LHC VOs: Atlas, LHCb
- Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero
- LCG Information System Monitor for this site: IN2P3-CPPM