L’équipe Modélisation et Simulation de la Turbulence déploie un certain nombre de ressources informatiques spécifiques à ses activités en complément de celles disponibles au LEGI.

Le cluster de virtualisation en haute disponibilité
Il est constitué de 3 DELL R530 (quorum). Ce cluster de virtualisation en haute disponibilité sous Proxmox-VE héberge les services critiques pour tendre vers une disponibilité H24, 7j/7. Cela concerne la résolution de noms, l’authentification, la gestion des clusters... mais aussi les espaces de données sensibles qui y sont distribués et répliqués (CEPH). Il autorise les migrations à chaud des machines virtuelles (sans interruption de service) et offre une résilience, sans intervention humaine, à la plupart des incidents techniques.
Les clusters de calcul parallèle distribué
- Kareline (mis en production en 2016) est un cluster de 400 cœurs Intel Xéon. Il est architecturé autour d’un réseau rapide (40Gbits/s) et basse latence infiniband QDR spécifiquement pour répondre aux besoins des calculs parallèles distribués développés par l’équipe.
- Tenibre (mis en production en 2021) est un cluster de 256 cœurs AMD Epyc2 spécifiquement dimensionné pour les codes trés dépendants des accés mémoire (bande passante de près de 205Go/s/processeur de 16 cores). Les nœuds de calcul sont interconnectés à 100Gb/s par un réseau infiniband HDR100. Ce même réseau est utilisé pour l’accés aux données. Enfin ce cluster dispose d’un nœud bi-GPU (Nvidia Ampere 100) pour développer les approches de calcul hybrides et supporter les nouvelles thématiques de recherche de l’équipe.
- Osorno (mis en production en 2025) est un cluster de 480 cœurs AMD Genoa, lui aussi spécifiquement dimensionné pour les codes trés dépendants des accés mémoire (plus de 400Go/s/processeur de 48 cores). Les nœuds de calcul sont interconnectés à 100Gb/s par un réseau infiniband HDR100 pour le calcul et par un réseau ethernet à 25Gb/s vers un cluster de stockage distribué pour les données.
Ces 3 clusters sont gérés via l’outil BlueBanquise. Ils permettent de mettre au point les codes de simulation et de réaliser une partie des calculs à méso-résolution, en amont des grands supercalculateurs des centres nationaux.
Les nœuds de visualisation intensive et traitement de grands volumes de données
- Un serveur de visualisation intensive (DELL R730) configuré avec deux Xéons Haswell-EP 10 cœurs (E5-2660 v3), 512Go de RAM et un GPU AMD Firepro W7000 permet la visualisation de grands volumes de données via un mécanisme de déport de session.
- Un serveur de pré et post-traitement (DELL R940), avec 4 Xéons gold 6148 (80 cœurs au total) et 1.5To de RAM permet de manipuler les trés grands volumes de données issues des simulations à très hautes résolutions sur les supercalculateurs de GENCI




