La programmation GPU en CUDA

Partager par email

×

Code Titre Durée Prix HT
CUD100 La programmation GPU en CUDA 3 jours Nous consulter

Objectifs

Maîtriser la programmation GPU en langage CUDA

Public

Cette formation s'adresse aux personnes qui souhaitent acquérir une connaissance solide de la programmation GPU et de la technologie CUDA.

Pré-requis

Bonne expérience de la programmation en langage C indispensable

Post-Formation

Méthodes

50% Pratique 50% Théorique

Programme

Jour 1

  • Introduction à CUDA
  • Introduction générale à CUDA
  • Modèles physique et logique de CUDA
  • Evolution des matériels Nvidia
  • Le langage CUDA-C
  • Compiler un code CUDA
  • Optimiser un code CUDA
  • Mesurer la performance
  • Géométrie des noyaux CUDA
  • Problème d’alignement mémoire
  • Les warps CUDA
  • Problème de coalescence des accès
  • Banches et divergences
  • Déroulage de boucles
  • La mémoire constance
  • La mémoire texture
  • La mémoire surface
  • La mémoire partagée
  • Taux d’occupation
  • Introduction au Nvidia profiler

Jour 2

  • TP d'optimisation
  • Optimisation d’un produit matrice constante
  • Optimisation d’un produit matrice vecteur
  • Optimisation d’une transposée de matrice
  • Gestion mémoire avancée
  • Alignement mémoire et padding
  • Sensibilisation au coût de la gestion mémoire
  • Allocation de mémoire verrouillée
  • Utilisation de mémoire « zéro-copie »
  • UVA

Jour 3

  • Notions d'algorithmique parallèle
  • Le pipe-line et les CUDA streams
  • La réduction
  • Opérations atomique
  • Application du «parallélisme dynamique» au tri parallèle
  • Bibliothèques CUDA
  • cuFFT
  • cuBLAS
  • Introduction à la programmation multi-GPU
  • Introduction générale à la programmation multi-GPU
  • Parallélisme à gros grain
  • Parallélisme à grain ffin
  • L’accès «peer-to-peer » avec UVA
  • TP final : Ecriture d’une version CUDA du code Modified Gram Schmidt

Environnement


Mot-clés

CUD100 programmation GPU CUDA CUD100

Commander