diff --git a/docs/HOWTO/hours_request.md b/docs/HOWTO/hours_request.md index 273cbb5a6..f5d36aba7 100644 --- a/docs/HOWTO/hours_request.md +++ b/docs/HOWTO/hours_request.md @@ -75,4 +75,4 @@ Sur Zen la comptabilisation se fait en heures CPU. Pour réserver un nœud compl ## Arctic (CPU et GPU) -Qu'un travail exploite des CPU ou des GPU, sa consommation de ressource décomptée est le nombdre d'heures.cœurs qu'il réserve : (cœurs de CPU) x (durée de temps elapsed). +Qu'un travail exploite des CPU ou des GPU, sa consommation de ressource décomptée est le nombre d'heures.cœurs qu'il réserve : (cœurs de CPU) x (durée de temps elapsed). diff --git a/docs/code_form/arctic/connexion.md b/docs/code_form/arctic/connexion.md index acaf1e92c..d5155af7d 100644 --- a/docs/code_form/arctic/connexion.md +++ b/docs/code_form/arctic/connexion.md @@ -9,7 +9,7 @@ La connexion s'effectue en SSH vers la frontale de nom **arctic.criann.fr** **Syntaxe en ligne de commande** : `ssh -l monlogin arctic.criann.fr` (en remplaçant `monlogin` par votre identifiant). -Les environnements Linux et Mac intègrent nativement le protocole SSH via un terminal. Si vous êtes sous environnement Windows, nous vous recommandons d'utiliser le logiciel [MobaXTerm](https://mobaxterm.mobatek.net/) qui vous apportera un environnement de travail complet basé du protocole ssh (export d'écran, transfert de fichiers). +Les environnements Linux et Mac intègrent nativement le protocole SSH via un terminal. Si vous êtes sous environnement Windows, nous vous recommandons d'utiliser le logiciel [MobaXTerm](https://mobaxterm.mobatek.net/) qui vous apportera un environnement de travail complet basé sur le protocole ssh (export d'écran, transfert de fichiers). Lire la documentation de bonnes pratiques de [sécurité](https://services.criann.fr/services/hpc/cluster-austral/guide/security/) dans la gestion des moyens de connexion. diff --git a/docs/code_form/arctic/description.md b/docs/code_form/arctic/description.md index ab263be43..dccc72089 100644 --- a/docs/code_form/arctic/description.md +++ b/docs/code_form/arctic/description.md @@ -8,7 +8,7 @@ sidebar_position: 1 ## Architecture globale Le cluster hébergeant Arctic est une solution HPE : - Réseau d'interconnexion SlingShot 11 à 200 Gbit/s (1 NIC par nœud de calcul fin (purement CPU), 1 NIC par nœud de calcul à GPU AMD, 3 ou 4 NIC par nœud de calcul à GPU NVIDIA) -- Systeme de fichiers parallèle Lustre +- Système de fichiers parallèle Lustre - Stockage : environ 2 Po d'espace disque (`/home`, `/dlocal`, `/soft`), dont : - environ 1 Po en technologie Flash - environ 1 Po en technologie disque mécanique diff --git a/docs/code_form/arctic/index.md b/docs/code_form/arctic/index.md index a7d702eb4..ebfebf803 100644 --- a/docs/code_form/arctic/index.md +++ b/docs/code_form/arctic/index.md @@ -3,7 +3,7 @@ title: "Arctic, multi-architectures" --- Parmi les entités de service « Code formation » de MesoNET, Arctic est matériellement hébergée par le cluster HPC régional (Austral) du mésocentre de Normandie, Criann. -Le service est accessible à des projets d'enseignement, de formation ou de développement d'application de recherche en IA ou HPC. +Le service est accessible à des projets d'enseignement, de formation ou de développement d'applications de recherche en IA ou HPC. En fonction de la nature d'un projet et du profil de ses applications, différents sous-ensembles d'architecture (voir [Description](./description.md) et [Environnements logiciels](./logiciels.md)) peuvent être ciblés ou réservés (cas de TP d'enseignement) : ressources purement CPU (AMD Genoa), ressources GPU AMD MI210, GPU NVIDIA A100 ou H200. diff --git a/docs/code_form/arctic/jobs.md b/docs/code_form/arctic/jobs.md index df2ca5d88..218406276 100644 --- a/docs/code_form/arctic/jobs.md +++ b/docs/code_form/arctic/jobs.md @@ -10,7 +10,7 @@ sidebar_position: 6 | -------------------------------------------------------------------------------------------- | -------------------------------------| | Caractéristiques des partitions (classes) | `sinfo` | | Soumettre un travail | `sbatch slurm_script.sl` | -| Lister l'ensemble des travail | `squeue` | +| Lister l'ensemble des travaux | `squeue` | | Lister ses propres travaux | `squeue --me` | | Affichage des caractéristiques d'un travail | `scontrol show job job_id` | | Prévision d'horaire de passage d'un travail en file d'attente | `squeue --start --job job_id` | @@ -22,7 +22,7 @@ sidebar_position: 6 Les modèles de script sont fournis dans un répertoire `/soft/slurm/Arctic_Modeles_scripts/` ## Les partitions (classes de soumission) -La parition Slurm est à spécifier par l'utilisateur dans son script. +La partition Slurm est à spécifier par l'utilisateur dans son script. | Partition | Durée maximale | Limites par calcul | ------------ | -------------- |------------------------------------------------------- | @@ -39,9 +39,9 @@ Lire sa [page consacrée](https://services.criann.fr/services/hpc/cluster-austra La partition `ar_mig` est associée à un nœud de calcul dont les GPU NVIDIA A100 sont partitionnés par la technologie MIG (Multi-Instance GPU). Différentes tailles d'instances sont disponibles (SM : Streaming Multiprocessor, TC : Tensor Core) : - - 10 devices a100_1g.10gb avec 10 GB de Mémoire, 14 SM et 56 TC - - 17 devices a100_2g.20gb avec 20 GB de Mémoire, 28 SM et 108 TC - - 4 devices a100_3g.40gb avec 40 GB de Mémoire, 42 SM et 164 TC + - 10 devices a100_1g.10gb avec 10 GB de mémoire, 14 SM et 56 TC + - 17 devices a100_2g.20gb avec 20 GB de mémoire, 28 SM et 108 TC + - 4 devices a100_3g.40gb avec 40 GB de mémoire, 42 SM et 164 TC Pour utiliser l'un de ces devices dans vos calculs il faut : - cibler la partition `ar_mig` avec l'option `--partition ar_mig` de sbatch diff --git a/docs/code_form/arctic/logiciels.md b/docs/code_form/arctic/logiciels.md index 50545d311..a8fe8b426 100644 --- a/docs/code_form/arctic/logiciels.md +++ b/docs/code_form/arctic/logiciels.md @@ -11,12 +11,12 @@ Les logiciels sont installés sous environnements python3, pour l'architecture d - Outils de traitement d'image **OpenCV** et **scikit-image** - Outils d'analyse de données **pandas** -Une [page dédiée](https://services.criann.fr/services/hpc/cluster-austral/guide/ia-deep-learning/) recense les différentes versions et leurs modules asscociés. +Une [page dédiée](https://services.criann.fr/services/hpc/cluster-austral/guide/ia-deep-learning/) recense les différentes versions et leurs modules associés. Commande utile : `module avail aidl` ## HPC -### Compliation +### Compilation Les liens suivants décrivent les environnements spécifiques (Cray Programming Environment) disponibles sur Arctic : - pour la [compilation de codes CPU](https://services.criann.fr/services/hpc/cluster-austral/guide/#compilation) - pour la [compilation de codes GPU](https://services.criann.fr/services/hpc/cluster-austral/guide/compil-gpu/) diff --git a/docs/code_form/arctic/stockage.md b/docs/code_form/arctic/stockage.md index 9ac8a197c..c461861b9 100644 --- a/docs/code_form/arctic/stockage.md +++ b/docs/code_form/arctic/stockage.md @@ -7,4 +7,4 @@ sidebar_position: 4 Un quota strict de 50 Go est appliqué sur l'espace de travail personnel (`$HOME`). -Les espaces de travail (homedir et scratch), les quotas disques indivuels et de projet et les bonnes pratiques de gestion des données font l'objet d'une [page dédiée](https://services.criann.fr/services/hpc/cluster-austral/guide/data-management/). +Les espaces de travail (homedir et scratch), les quotas disques individuels et de projet et les bonnes pratiques de gestion des données font l'objet d'une [page dédiée](https://services.criann.fr/services/hpc/cluster-austral/guide/data-management/).