Formation Programmation OpenACC (2 jours)

Familiariser le programmeur avec la programmation par directives OpenACC.
Accélérer les codes hpc en utilisant les cartes accélératrices nvidia.

mots clés  : openacc, optimisation de code, gp-gpu

  • introduction, motivation, revue des modèles de programmation
  • compilation, pragmas simple, kernel
  • "restrict keyword", mouvement des données basics : gestiond es donées, noyau (kernel) d’exécution, mémoire hierarchique.
  • optimisation de codes de calcul,
  • niveaux de parallélisme
  • profiling

pré-requis :
bases c/c++, une connaissance de base en programmation parallèle (thread, posix, openmp, mpi, ...) sera très utile.

Voir aussi

Formation RogueWave : Deboggeur Parallèle TOTALVIEW sur le supercalculateur EOS

Cette formation se déroule sur une journée : 31 Mars 2015

Formation 2017 : Introduction au calcul haute performance et prise en main su système EOS

Support de la formation QuiskStart 2016

Formation OLYMPE : Informations Pratiques

Si Format présentiel maintenu :

Formation Introduction au calcul haute performance et prise en main du système de calcul

Supports Formation Prise en main d’Olympe

Formation Olympe : Outil ARM (Debugger DDT, Profileur MAP)

SYNOPSYS FORMATION ARM La formation ATOS sur l’outil ARM Forge regroupant le deboggeur DDT et le profilleur MAP se déroulera de la manière suivante sur trois jours.

Formation-Séminaire autour des Données FAIR et des Plans de Management de la Donnée (DMP), 27 juin 2019

Organisation d’une journée de formation co-organisée par CALMIP (Toulouse) et le GRICAD (Grenoble) au sujet de la gestion des données de la recherche et des principes FAIR pour une science reproductible et ouverte.

Formation Outils Intel - Inspector - Intel Trace Analyzer - Vector Advisor - Vtune (Amplifier XE)

Formation de 3 jours aux Outils Intel de Profiling et d’aide à l’analyse de code .

Formation Programmation CUDA Basics

Familiariser le programmeur avec le langage cuda. Accélérer les codes hpc en utilisant les cartes accélératrices nvidia. mots clés : modèle de programmation, optimisation de code, gp-gpu

Formation Programmation CUDA Avancée / CUDA Advanced

Synopsys :

Démarrage Rapide avec le Supercalculateur Olympe

Cette formation a pour but de présenter le système de calcul Olympe à travers une introduction rapide aux concepts du calcul haute performance, de permettre aux utilisateurs d’appréhender le système de soumission des travaux slurm et l’environnement du

Webinar : Utilisation code Vasp sur cartes accélératrices GPU d’Olympe

Synopsys Présentation des cartes accélératrices d’Olympe Architecture des noeuds voltaUtilisation des cartes accélératrices GPU via SLURM Méthodologie utilisation

Webinar "Valorisation des données" : Présentation, démonstration et prise en main de CALLISTO

Synopsis Présentation du contexte général Principes FAIR / CLAIR, science ouverte Exigences de l’ANR et des projets européens Les aspects concrets concernant le c

Formations Outils Intel pour OLYMPE (ITAC, Advisor, Vtune)

formation de 3 jours dispensées par atos sur différents outils intel.

Historique Formations CALMIP 2004 à 2019

 2019

Webinar : Démarrage Rapide/ Quick Start

Agenda

Webinar : ML-DL@CALMIP/Apprentissage profond@CALMIP

AGENDA 15h00-17h00

Septembre 2020 : Formations à venir

Machine-Deep-Learning@CALMIP / ApprentissageProfond@CALMIP (Formation CALMIP) Format : Webinar Objectif : cette formation a pour but d’aider les utilisateurs des framework ML-DL( Tensorflow, Pytorch) su

Formation OpenMP 5.0

Introduction Different ways to use accelerators OpenMP norm and syntax discussion Compilation example Computation on GPU

Synopsys Bootcamp Multi-GPU

CALMIP, en collaboration avec le CUTIS et Nvidia, propose un bootcamp portant sur l’écriture de codes de calcul utilisant les GPUS :