Skip to content
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
2 changes: 1 addition & 1 deletion docs/HOWTO/hours_request.md
Original file line number Diff line number Diff line change
Expand Up @@ -75,4 +75,4 @@ Sur Zen la comptabilisation se fait en heures CPU. Pour réserver un nœud compl

## Arctic (CPU et GPU)

Qu'un travail exploite des CPU ou des GPU, sa consommation de ressource décomptée est le nombdre d'heures.cœurs qu'il réserve : (cœurs de CPU) x (durée de temps elapsed).
Qu'un travail exploite des CPU ou des GPU, sa consommation de ressource décomptée est le nombre d'heures.cœurs qu'il réserve : (cœurs de CPU) x (durée de temps elapsed).
2 changes: 1 addition & 1 deletion docs/code_form/arctic/connexion.md
Original file line number Diff line number Diff line change
Expand Up @@ -9,7 +9,7 @@ La connexion s'effectue en SSH vers la frontale de nom **arctic.criann.fr**

**Syntaxe en ligne de commande** : `ssh -l monlogin arctic.criann.fr` (en remplaçant `monlogin` par votre identifiant).

Les environnements Linux et Mac intègrent nativement le protocole SSH via un terminal. Si vous êtes sous environnement Windows, nous vous recommandons d'utiliser le logiciel [MobaXTerm](https://mobaxterm.mobatek.net/) qui vous apportera un environnement de travail complet basé du protocole ssh (export d'écran, transfert de fichiers).
Les environnements Linux et Mac intègrent nativement le protocole SSH via un terminal. Si vous êtes sous environnement Windows, nous vous recommandons d'utiliser le logiciel [MobaXTerm](https://mobaxterm.mobatek.net/) qui vous apportera un environnement de travail complet basé sur le protocole ssh (export d'écran, transfert de fichiers).

Lire la documentation de bonnes pratiques de [sécurité](https://services.criann.fr/services/hpc/cluster-austral/guide/security/) dans la gestion des moyens de connexion.

2 changes: 1 addition & 1 deletion docs/code_form/arctic/description.md
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ sidebar_position: 1
## Architecture globale
Le cluster hébergeant Arctic est une solution HPE :
- Réseau d'interconnexion SlingShot 11 à 200 Gbit/s (1 NIC par nœud de calcul fin (purement CPU), 1 NIC par nœud de calcul à GPU AMD, 3 ou 4 NIC par nœud de calcul à GPU NVIDIA)
- Systeme de fichiers parallèle Lustre
- Système de fichiers parallèle Lustre
- Stockage : environ 2 Po d'espace disque (`/home`, `/dlocal`, `/soft`), dont :
- environ 1 Po en technologie Flash
- environ 1 Po en technologie disque mécanique
Expand Down
2 changes: 1 addition & 1 deletion docs/code_form/arctic/index.md
Original file line number Diff line number Diff line change
Expand Up @@ -3,7 +3,7 @@ title: "Arctic, multi-architectures"
---
Parmi les entités de service « Code formation » de MesoNET, Arctic est matériellement hébergée par le cluster HPC régional (Austral) du mésocentre de Normandie, Criann.

Le service est accessible à des projets d'enseignement, de formation ou de développement d'application de recherche en IA ou HPC.
Le service est accessible à des projets d'enseignement, de formation ou de développement d'applications de recherche en IA ou HPC.

En fonction de la nature d'un projet et du profil de ses applications, différents sous-ensembles d'architecture (voir [Description](./description.md) et [Environnements logiciels](./logiciels.md)) peuvent être ciblés ou réservés (cas de TP d'enseignement) : ressources purement CPU (AMD Genoa), ressources GPU AMD MI210, GPU NVIDIA A100 ou H200.

Expand Down
10 changes: 5 additions & 5 deletions docs/code_form/arctic/jobs.md
Original file line number Diff line number Diff line change
Expand Up @@ -10,7 +10,7 @@ sidebar_position: 6
| -------------------------------------------------------------------------------------------- | -------------------------------------|
| Caractéristiques des partitions (classes) | `sinfo` |
| Soumettre un travail | `sbatch slurm_script.sl` |
| Lister l'ensemble des travail | `squeue` |
| Lister l'ensemble des travaux | `squeue` |
| Lister ses propres travaux | `squeue --me` |
| Affichage des caractéristiques d'un travail | `scontrol show job job_id` |
| Prévision d'horaire de passage d'un travail en file d'attente | `squeue --start --job job_id` |
Expand All @@ -22,7 +22,7 @@ sidebar_position: 6
Les modèles de script sont fournis dans un répertoire `/soft/slurm/Arctic_Modeles_scripts/`

## Les partitions (classes de soumission)
La parition Slurm est à spécifier par l'utilisateur dans son script.
La partition Slurm est à spécifier par l'utilisateur dans son script.

| Partition | Durée maximale | Limites par calcul
| ------------ | -------------- |------------------------------------------------------- |
Expand All @@ -39,9 +39,9 @@ Lire sa [page consacrée](https://services.criann.fr/services/hpc/cluster-austra
La partition `ar_mig` est associée à un nœud de calcul dont les GPU NVIDIA A100 sont partitionnés par la technologie MIG (Multi-Instance GPU).

Différentes tailles d'instances sont disponibles (SM : Streaming Multiprocessor, TC : Tensor Core) :
- 10 devices a100_1g.10gb avec 10 GB de Mémoire, 14 SM et 56 TC
- 17 devices a100_2g.20gb avec 20 GB de Mémoire, 28 SM et 108 TC
- 4 devices a100_3g.40gb avec 40 GB de Mémoire, 42 SM et 164 TC
- 10 devices a100_1g.10gb avec 10 GB de mémoire, 14 SM et 56 TC
- 17 devices a100_2g.20gb avec 20 GB de mémoire, 28 SM et 108 TC
- 4 devices a100_3g.40gb avec 40 GB de mémoire, 42 SM et 164 TC

Pour utiliser l'un de ces devices dans vos calculs il faut :
- cibler la partition `ar_mig` avec l'option `--partition ar_mig` de sbatch
Expand Down
4 changes: 2 additions & 2 deletions docs/code_form/arctic/logiciels.md
Original file line number Diff line number Diff line change
Expand Up @@ -11,12 +11,12 @@ Les logiciels sont installés sous environnements python3, pour l'architecture d
- Outils de traitement d'image **OpenCV** et **scikit-image**
- Outils d'analyse de données **pandas**

Une [page dédiée](https://services.criann.fr/services/hpc/cluster-austral/guide/ia-deep-learning/) recense les différentes versions et leurs modules asscociés.
Une [page dédiée](https://services.criann.fr/services/hpc/cluster-austral/guide/ia-deep-learning/) recense les différentes versions et leurs modules associés.

Commande utile : `module avail aidl`

## HPC
### Compliation
### Compilation
Les liens suivants décrivent les environnements spécifiques (Cray Programming Environment) disponibles sur Arctic :
- pour la [compilation de codes CPU](https://services.criann.fr/services/hpc/cluster-austral/guide/#compilation)
- pour la [compilation de codes GPU](https://services.criann.fr/services/hpc/cluster-austral/guide/compil-gpu/)
Expand Down
2 changes: 1 addition & 1 deletion docs/code_form/arctic/stockage.md
Original file line number Diff line number Diff line change
Expand Up @@ -7,4 +7,4 @@ sidebar_position: 4

Un quota strict de 50 Go est appliqué sur l'espace de travail personnel (`$HOME`).

Les espaces de travail (homedir et scratch), les quotas disques indivuels et de projet et les bonnes pratiques de gestion des données font l'objet d'une [page dédiée](https://services.criann.fr/services/hpc/cluster-austral/guide/data-management/).
Les espaces de travail (homedir et scratch), les quotas disques individuels et de projet et les bonnes pratiques de gestion des données font l'objet d'une [page dédiée](https://services.criann.fr/services/hpc/cluster-austral/guide/data-management/).