Difference between revisions of "Tier 2:CPPM"
M |
|||
Ligne 5: | Ligne 5: | ||
Le CPPM a installé en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. | Le CPPM a installé en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. | ||
− | Un projet de grille de campus (LuminyGrid) est en cours d'étude. Il vise à mettre en ligne environ | + | Un projet de grille de campus (LuminyGrid) est en cours d'étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l'ordre de 3PO. |
<b>Pour le moment le site est équipé </b>de : | <b>Pour le moment le site est équipé </b>de : | ||
− | * | + | * 8 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire |
* 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) | * 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés) | ||
* 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire | * 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire | ||
− | * | + | * 45 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire |
− | soit | + | soit 476 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles. |
<b>L'espace de stockage est un serveur DPM</b>, séparé en 3 serveurs : | <b>L'espace de stockage est un serveur DPM</b>, séparé en 3 serveurs : | ||
− | * marsedpm : Maitre DPM | + | * marsedpm : Maitre DPM. |
* marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L'espace utile total pour la grille est de l'ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps. | * marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L'espace utile total pour la grille est de l'ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps. | ||
* marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps | * marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps | ||
<b>Le site dispose également </b>: | <b>Le site dispose également </b>: | ||
− | |||
* un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr | * un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr | ||
* un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr | * un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr |
Version du 12:05, 11 juillet 2009
- Responsable scientifique : Chris Bee
- Responsable technique : Thierry Mouthuy
Le CPPM a installé en ses murs un noeud de calcul Tier-3 intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures.
Un projet de grille de campus (LuminyGrid) est en cours d'étude. Il vise à mettre en ligne environ 6000 coeurs de calcul et un espace de stockage de l'ordre de 3PO.
Pour le moment le site est équipé de :
- 8 serveurs bi-processeurs (Opteron 2.4 GHz) avec 4 GO de mémoire
- 15 serveurs bi-processeurs bi-coeur (Opteron 2.2 GHz) avec 6 GO de mémoire (4 coeurs activés)
- 10 serveurs (Opteron 2218 bi-processeurs bi-coeur) avec 8 GO de mémoire
- 45 serveurs (Xeon 5420 bi-pro quadri-coeurs) avec 16 GO de mémoire
soit 476 noeuds de calcul. Les noeuds de calcul sont installés en SL4-64 bits avec les librairies compatibles.
L'espace de stockage est un serveur DPM, séparé en 3 serveurs :
- marsedpm : Maitre DPM.
- marjoe : Baie de disques avec des espaces communs, de groupe et réservés. L'espace utile total pour la grille est de l'ordre de 30 TO. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps.
- marjack : Deux baies de 15 disques de 1TO brut chacune, soit 30 TO bruts. Le serveur frontal est connecté au réseau local en mode "trunk" de 2x1Gbps
Le site dispose également :
- un WMS : marwms.in2p3.fr associé à une machine LB : marlb.in2p3.fr
- un serveur VOMS (pour la VO CPPM) : marvoms.in2p3.fr
- une interface utilisateur : marui.in2p3.fr
Réseau : 1 Gbit/s entre les éléments du site, 1 Gbit/s vers Renater
Site information system: ldap://marce01.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
Administrator contact : gridadmin@cppm.in2p3.fr
- LCG Grid Operations Centre's entry for this site: IN2P3-CPPM (access granted by LCG user certificate)
- Supported LHC VOs: Atlas,LHCb
- Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam
- LCG Information System Monitor for this site: IN2P3-CPPM