Institut Méditerranéen d’Océanologie
Accueil du site > Plateformes > Plate-forme de calcul intensif (HPC) pour la modélisation

Documents joints

Plate-forme de calcul intensif (HPC) pour la modélisation

Responsables de la Plateforme : Christel Pinazo et Maurice Libes

PDF - 56.2 ko
Charte d’Utilisation

Le cluster de calcul de l’OSU-Institut Pythéas est un ensemble de machines, sévèrement « gonflées » en processeur et mémoire, connectées sur un réseau Infiniband, et dédiées au calcul intensif.

Ce cluster a été financé à son origine (2008) par des fonds provenant du Centre d’Océanologie de Marseille et de l’Université de la Méditerranée. Depuis la constitution de l’Observatoire Pytheas, ce cluster est mis à la disposition de chacune des unités de Pytheas moyennant une participation éventuelle, selon l’importance des ressources de calcul nécessaires

Composition du Cluster

Le cluster actuel est un ensemble de 19 noeuds de calcul (Janv. 2015) reliés sur un réseau à faible latence Infiniband,

  • 10 Noeuds bi processeurs quad-core avec 24 Go de RAM
  • 6 Noeuds bi processeurs hexa-core avec 48Go de RAM
  • 2 noeuds bipro octo-core 64Go de RAM
  • 1 réseau à faible latence de type Infiniband QDR (40Gb/s) permettant de faire du calcul parallélisé (le cluster possede la librairie Intel-MPI)
  • 1 espace de stockage composé de 45 To utiles avec un file system de type GPFS
  • Système d’exploitation Linux CentOS 6.3

Logiciels et librairies installées

  • Matlab version 2012
  • R
  • compilateurs fortran90, C, C++ de Intel
  • librairies Netcdf
  • Netcdf operator (nco)
  • librairies ferret

Logiciels de génétique des Populations

  • BEASTv1.7.4.tgz
  • ima2-8.27.12.tar.gz
  • mrbayes-3.2.1.tar.gz
  • phyml_v3.0.tar.gz
  • phyml-20120412.tar.gz
  • mono-2.11.4.tar
  • phyml-20120412.tar.gz
  • RASP_Linux_20120316.zip

Logiciels de BioInformatique

  • OBITools
  • Mothur

Comment avoir accès au cluster de calcul ?

il faut tout d’abord prendre contact avec le SIP Pytheas et faire une demande d’ouverture d’un compte sur le cluster :
http://assistance.pytheas.univ-amu.fr

ceci, afin de discuter de vos besoins de calcul et d’analyser les ressources nécessaires. Cette étape est nécessaire et importante afin de pouvoir gérer au mieux les ressources de calcul entre les différents utilisateurs

Après création de votre compte spécifique sur le cluster, vous pouvez alors vous connecter directement sur le cluster depuis les sites de Pytheas avec le programme « ssh »
sous Linux :

  • ssh cluster.osupytheas.fr

Sous Windows :
il vous faut télécharger le programme « putty » (pour la connexion) et winscp (pour le transfert de fichiers)
ou le programme : SecureShell (ce programme fait à la fois la connexion et le transfert de fichiers)

Coût d’entrée

Après analyse de vos besoins de calcul, et des ressources disponibles dans le cluster, 2 cas se présentent :

  • si les besoins de calcul sont modestes (e.g quelques heures de calcul pendant quelques jours, espace disque consommé faible) et qu’ils peuvent être pris en charge aisément par les ressources actuelles du cluster, sans perturber l’ensembles des utilisateurs actuels, alors l’utilisation peut se faire rapidement sans quote part à l’architecture du cluster
  • en revanche si les besoins sont importants en terme d’espace disque consommé, de machines de calcul mobilisées et perturbent les jobs de calcul en cours d’exécution, alors il sera demander d’investir dans l’achat de quelques machines de calcul ou de disques supplémentaires

Pour lancer des jobs de calcul – Que faut-il savoir ?

Le cluster est en accès protégé et n’est accessible que depuis les sites de Pytheas (a moins d’utiliser le VPN du M.I.O) . Pour utiliser le cluster, il faut transférer tous vos programmes sur votre espace de stockage du cluster… par scp ou winscp et l’installer (compiler) sur ce dernier.

Le cluster de calcul utilise un gestionnaire de « jobs » de calcul appelé SGE (Sun Grid Engine).. SGE est un logiciel permettant de lancer vos travaux de longue durée sur le cluster de machines. SGE permet l’équilibrage de charge harmonieux entre les machines ainsi que la gestion optimale des ressources critiques des machines (mémoire…). Ce programme permet de prendre en charge tous les jobs de calcul qui sont lancés par les utilisateurs et d’en gérer leur exécution au fil du temps sur les machines les plus appropriées du cluster… Les jobs de calcul sont envoyés dans des files (« queues« )

Du point de vue de l’utilisateur, il est donc nécessaire :

- de connaitre les « queues » qui sont disponibles afin de pouvoir lancer vos programmes dans la file la plus appropriée
- d’apprendre a se servir des principales commande de SGE pour lancer, arrêter des jobs de calcul… Ci dessous quelques documentations :
http://giref.ulaval.ca/~ctibirna/parallele/sge/
http://www.crihan.fr/calcul/tech/apple_cluster/folder.2005-01-24.0666848678/folder.2005-02-03.8132390074
apprendre à compiler votre programme soit en mode séquentiel, soit avec les librairies de parallélisation « MPI »

Les files d’exécution (« queues »)

Il y a actuellement (mai 2012) une file d’exécution réservée aux jobs parallélisés avec MPI et une autre réservée aux jobs « séquentiels ».

La queue parallèle : parallele.q
La queue sequentielle : sequentielle.q

Les queues sont composées de machines les plus appropriées à chacun des types d’exécution. En l’occurrence, la queue séquentielle est composée de deux machines et la queue parallèle de 14machines.

Sachez que cette répartition n’est pas définitive et immuable et peut être largement discutée et adaptée en fonction des nouveaux besoins qui apparaissent parmi les utilisateurs

Surveillance du cluster

Vous pouvez avoir accès aux statistiques d’utilisation du cluster (logiciel ganglia), qui vous permettent de voir de manière graphique quel est le taux d’utilisation du cluster, ou encore de voir la consommation de ressources (mémoire, disque, réseau) de votre programme en cours d’exécution.


la Doc en ligne du cluster

- http://cluster.osupytheas.fr/pmwiki/pmwiki.php