Nuove piattaforme e paradigmi per il calcolo parallelo – Seminario INCA-ABACO

Massimo Bernaschi
Istituto per le Applicazioni del Calcolo “M. Picone”, IAC-CNR.

31 Maggio 2016 ore 16.00
Aula L3
Via della Ricerca Scientifica, 1,
Roma (RM), So.Ge.Ne.

Abstract.incontro31maggio_lowres
Il calcolo parallelo appare come un’idea intuitiva la cui realizzazione pratica ha incontrato, tuttavia, una serie di difficoltà tali per cui è diventato solo di recente uno strumento ampiamente utilizzato dai ricercatori di varie discipline. Attraverso alcuni esempi verranno illustrate le possibilità che il calcolo parallelo offre attualmente e saranno indicate le sfide teoriche e pratiche che il suo ulteriore sviluppo offre nel breve e lungo periodo.

Ulteriori informazioni sul sito del progetto.

Introduzione al Calcolo Parallelo con MPI – Seminario INCA-ABACO

F. Bonaccorso
Dipartimento di Fisica,
Università di Roma Tor Vergata

24 Maggio 2016 ore 16.00
Aula 17
Via della Ricerca Scientifica, 1,
Roma (RM), So.Ge.Ne.

Abstract.
Il calcolo distribuito in parallelo su più CPU permette di effettuare simulazioni scientifiche altrimenti inarrivabili. Il paradigma MPI è uno standard di fatto disponibile per i processori e i sistemi operativi più

incontro24maggio_lowresdiversi, per programmare in parallelo da uno fino a più milioni di CPU. Come in una sinfonia il compositore scrive la partitura di ogni singolo strumento alla luce dell’armonia complessiva, cosi in un programma MPI si descrivono le singole computazioni locali per risolvere il problema nel suo insieme. In questo seminario verranno introdotte le nozioni base di MPI, con esempi per il calcolo scientifico, per poi mostrare lo stato dell’arte delle sue applicazioni.

Programmazione su schede grafiche (GPU) in CUDA – INCA-ABACO

Terzo Seminario del ciclo INCA-ABACO

GPGPU, noto anche come GPU Computing è l’acronimo di “general purpose computing on graphics processing units”. L’obiettivo del GPGPU è incontro12aprilequello di sfruttare i processori delle schede grafiche (GPUs) per scopi differenti da quelli tradizionali, e.g., rendering di immagini in 3D. Le GPU sono dei dispositivi hardware multi-core ad elevate prestazioni in termini di capacità di calcolo parallelo e trasmissione dati, impiegate come acceleratori per elaborazioni estremamente esigenti per le quali le tradizionali architetture CPU non hanno sufficienti capacità di elaborazione. CUDA è l’architettura di elaborazione in parallelo di NVIDIA che permette di sfruttare la potenza di calcolo delle GPU NVIDIA. Quasi tutte le principali applicazioni video sono accelerate mediante CUDA e l’architettura CUDA è stata accolta con entusiasmo anche nel settore della ricerca scientifica.

Questa presentazione è rivolta a studenti che hanno acquisito una discreta conoscenza della programmazione, in particolare del linguaggio C. L’obiettivo è quello di mettere a disposizione degli studenti gli strumenti di base e l’assistenza necessaria per poter sfruttare la potenza di calcolo delle GPU utilizzando il CUDA. Durante la presentazione verranno presentate alcune applicazioni riguardanti il problema degli N-corpi ed il modello FPU.

Martedì 12 Aprile
Aula 17
So.Ge.Ne. – Via Della Ricerca Scientifica, 1 – Roma