Alcuni strumenti per lo sviluppo di software su architetture MIMD

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Alcuni strumenti per lo sviluppo di software su architetture MIMD"

Transcript

1 Alcuni strumenti per lo sviluppo di software su architetture MIMD Calcolatori MIMD Architetture SM (Shared Memory) OpenMP Architetture DM (Distributed Memory) MPI 2 1

2 Message Passing Interface MPI Processore 0 Processore 1 Processore N memory memory memory CPU CPU CPU Network Sistema a memoria distribuita Ogni processore ha una propria memoria locale alla quale accede direttamente. Ogni processore può conoscere i dati in memoria di un altro processore o far conoscere i propri, attraverso il trasferimento di dati. 4 2

3 Definizione: message passing ogni processore può conoscere i dati nella memoria di un altro processore o far conoscere i propri, attraverso il trasferimento di dati. Message Passing : modello per la progettazione di software in ambiente di Calcolo Parallelo. 5 La necessità di rendere portabile il modello Message Passing ha condotto alla definizione e all implementazione di un ambiente standard. Message Passing Interface MPI 6 3

4 Message Passing Interface MPI Non è un prodotto specifico Paradigma per la progettazione di algoritmi paralleli in termini di processi concorrenti che coordinano la propria attività comunicando 1994 MPI forum università e industrie definiscono uno standard 7 Implementazioni di MPI MPICH (Argonne National Laboratory (ANL) and Mississippi State t University (MSU)) OpenMPI,.. Linguaggi ospiti:fortran,c,c++ 8 4

5 Dove recuperare MPI www-unix.mcs.anl.gov/mpi/ 9 www-unix.mcs.anl.gov/mpi/ 10 5

6 Struttura della libreria MPI 11 Funzionalità della libreria MPI Funzioni di management della comunicazione Definizione/ identificazione di gruppi di processi coinvolti nella comunicazione i Definizione /gestione dell identità del singolo processo all interno del gruppo Funzioni di scambio di messaggi Inviare/ ricevere dati da un processo Inviare/ ricevere dati da un gruppo di processi Definizione di costanti e valori di default 12 6

7 Unità fondamentale è il processo Ogni processo esegue un proprio algoritmo utilizzando i dati residenti nella propria memoria quando è necessario comunica con gli altri processi 13 int main() { sum=0; for i= 0 to 14 do sum=sum+a[i]; sum+a[i]; endfor return 0; In ambiente MPI un programma è visto come un insieme di componenti (o processi) concorrenti main() { sum=0; for i=0 to 4 do sum=sum+a[i]; endfor return 0; Componente 1 main() { Componente 2 sum=0; for i=5 to 9 do sum=sum+a[i]; endfor return 0; main() { Componente 3 sum=0; for i=10 to 14do sum=sum+a[i]; endfor return 0; 14 7

8 15 In MPI i processori sono gestiti da due oggetti.: Gruppo Communicator 16 8

9 Alcuni concetti di base: GRUPPO Componente 1 Componente 2 Componente n P 0 P 1 P 0 P 0 P 1 P 2 Ogni componente concorrente del programma viene affidata ad un gruppo di processori In ogni gruppo ad ogni processore re è associato un identificativo (rank rank) L identificativo è un intero, compreso tra 0 ed il numero totale di processori appartenenti ad un gruppo decrementato di una unità Processori appartenenti a uno o più gruppi possono avere identificativi diversi, ciascuno relativo ad uno specifico gruppo 17 Communicator Communicator oggetto contenente un gruppo di processi ed un insieme di attributi associati due processi possono comunicare solo se fanno parte dello stesso communicator all interno di un communicator ogni processo ha un identificativo unico (intero da 0 a n-1) in un programma MPI può essere definito più di un communicator un processo può appartenere a più communicator 18 9

10 Componente 1 Componente 2 Componente n P 0 P 1 P 0 P 0 P 1 P 2 Communicator_1 Communicator_2 Communicator_m La maggior parte delle routine MPI richiedono come input un communicator 19 Tutti i processori fanno parte per default di un unico communicator detto MPI_COMM_WORLD 20 10

11 21 Le funzioni di MPI MPI è una libreria che comprende: Funzioni per definire l ambiente Funzioni per comunicazioni uno a uno Funzioni percomunicazioni collettive Funzioni peroperazioni collettive 22 11

12 Tutte le funzioni MPI,inclusi gli identificatori, iniziano con MPI_ seguito da una maiuscola e da minuscole Le costanti sono stringhe di lettere maiuscole e _ precedute da MPI Header file per un programma C #include mpi.h 23 MPI ha 125 funzioni le più usate: MPI_INT MPI_COMM_SIZE MPI_COMM_RANK MPI_SEND MPI_RECV MPI_FINALIZE 24 12

13 Tutte le routine MPI (tranne MPI_Wtime e MPI_Wtick ) sono function con valore di ritorno un indicatore di errore error = MPI_Xxxx(parametri,..) MPI_Xxxx(parametri,..) Questo indicatore di errore può per esempio assumere uno di questi valori: MPI_SUCCESS, nessun errore; MPI_ERR_ARG, argomento errato; MPI_ERR_RANK, identificavo errato. 25 Le funzioni dell ambiente

14 Struttura di un programma MPI #include <stdio.h> #include mpi.h main(int argc, char *argv[]) { MPI_Init(&argc,&argv); :: corpo del programma MPI_Finalize(); return 0; 27 #include mpi.h mpi.h : Header File Il file contiene alcune direttive necessarie al preprocessore per l utilizzo dell MPI 28 14

15 #include <stdio.h> #include mpi.h main(int argc, char *argv[]) { MPI_Init(&argc,&argv); :: corpo del programma MPI_Finalize(); return 0; 29 MPI_Init(&argc,&argv); & Inizializza l ambiente di esecuzione MPI Inizializza il communicator MPI_COMMON_WORLD I due dati di input: argc ed argv sono gli argomenti del main 30 15

16 In generale MPI_Init(int *argc, char ***argv); Input: argc, **argv; inizializza l ambiente di esecuzione di MPI. può essere chiamata una sola volta, prima di ogni altra routine MPI Definisce l insieme dei processori attivati (communicator) 31 #include <stdio.h> #include mpi.h main(int argc, char *argv[]) { MPI_Init(&argc,&argv); :: corpo del programma MPI_Finalize(); return 0; 32 16

17 MPI_ Finalize(); Questa routine determina la fine del programma MPI. Dopo questa routine non è possibile richiamare nessun altra routine di MPI. 33 Rank and Size Quanti processi sono attivi? MPI_Comm_size Io chi sono? MPI_Comm_rank 34 17

18 #include <stdio.h> #include mpi.h int main(int argc, argc, char *argv[]) char *argv[]) { int menum, nproc; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&menum); MPI_Comm_size(MPI_COMM_WORLD,&nproc); printf( Sono %d di %d\n,menum,nproc); di %d\n,menum,nproc); MPI_Finalize(); _ Finalize(); return return 0; 0; Tutti i processori di MPI_COMM_WORLD stampano a video il proprio identificativo menum ed il numero di processori nproc 35 #include <stdio.h> #include mpi.h int main(int argc, char *argv[]) { int menum, nproc; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&menum); MPI_Comm_size(MPI_COMM_WORLD,&nproc); printf( Sono %d di %d\n,menum,nproc); MPI_Finalize(); return 0; Tutti i processori di MPI_COMM_WORLD stamperanno sul video il proprio identificativo menum ed il numero di processori nproc

19 MPI_Comm_rank(MPI_COMM_WORLD,&menum); COMM Questa routine permette al processore chiamante, appartenente al communicator MPI_COMM_WORLD, di memorizzare il proprio identificativo nella variabile menum. 37 MPI_Comm_rank(MPI_Comm comm, int *menum); Input: comm Output: menum Fornisce ad ogni processore del communicator comm l identificativo menum

20 #include <stdio.h> #include mpi.h int main(int argc, char *argv[]) { int menum, nproc; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&menum); MPI_Comm_size(MPI_COMM_WORLD,&nproc); printf( Sono %d di %d\n,menum,nproc); MPI_Finalize(); return 0; Tutti i processori di MPI_COMM_WORLD stamperanno sul video il proprio identificativo menum ed il numero di processori nproc. 39 MPI_Comm_size(MPI_COMM_WORLD,&nproc); COMM Questa routine permette al processore chiamante di memorizzare nella variabile nproc il numero totale dei processori concorrenti appartenenti al communicator MPI_COMM_WORLD

21 MPI_Comm_size(MPI_Comm comm, int *nproc); Input: comm Output: nproc Ad ogni processore del communicator comm, restituisce in nproc, il numero totale di processori che costituiscono comm. Permette di conoscere quanti processori concorrenti possono essere utilizzati per una determinata operazione 41 L output sarà del tipo sono 0 di 4 sono 1 di 4 sono 2 di 4 sono 3 di

22 La comunicazione di un messaggio La comunicazione di un messaggio può coinvolgere due o più processori. Per comunicazioni che coinvolgono solo due processori Per comunicazioni che coinvolgono più processori Si considerano funzioni MPI per comunicazioni uno a uno Si considerano funzioni MPI per comunicazioni collettive 43 Comunicazione di un messaggio uno a uno 44 22

23 cos è un messaggio? un messaggio è essenzialmente un blocco di dati da trasferire tra i processi 45 Il processo source effettua una chiamata ad una funzione MPI in cui è specificato il rank del processo destination nel communicator Il processo destination deve effettuare una chiamata ad una funzione MPI per ricevere il messaggio 46 23

24 È rispettato l ordine di invio 47 System buffer Area destinata ai dati in transito Trasparente al programmatore Può esistere per il source, il destination o entrambi Dipende dalla libreria 48 24

25 Caratteristiche di un messaggio Un messaggio è definito da envelope (mittente) body (dati) Un messaggio è completato se Se le locazioni di memoria utilizzate per il trasferimento t si possono riutilizzare 49 Un dato che deve essere spedito o ricevuto attraverso un messaggio di MPI è descritto dalla seguente tripla (address, count, datatype) Indirizzo in memoria del dato Dimensione del dato Tipo del dato Un datatype di MPI è predefinito e corrisponde univocamente ad un tipo di dato del linguaggio di programmazione utilizzato

26 Ogni tipo di dato di MPI corrisponde univocamente ad un tipo di dato del linguaggio C. 51 Envelope (mittente): Identificativo del processo che invia Identificativo del processo che deve ricevere Identificativo del communicator a cui appartengono Un identificativo(tag) che classifica il messaggio per distinguere messaggi diversi 52 26

27 Tipi di comunicazioni La spedizione o la ricezione di un messaggio da parte di un processore può essere bloccante o non bloccante Se un processore esegue una comunicazione bloccante si arresta fino a conclusione dell operazione il buffer di uscita è svuotato Se un processore esegue una comunicazione non bloccante prosegue senza preoccuparsi della conclusione dell operazione. 53 Comunicazioni bloccanti in MPI Funzione bloccante per la spedizione di un messaggio: MPI_Send Funzione bloccante per la ricezione di un messaggio: MPI_Recv 54 27

28 Un semplice programma con 2 processori #include <stdio.h> #include mpi.h int main(int argc, char *argv[]) { int menum, nproc; int n, tag, num; MPI_Status info; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&menum); if(menum==0) { scanf( %d,&n); tag=10; MPI_Send(&n,1,MPI_INT,1,tag,MPI_COMM_WORLD); else { tag=10; MPI_Recv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&info); INT MPI_Get_count(&info,MPI_INT,&num); MPI_Finalize(); return 0; 55 MPI_Send(&n,1,MPI_INT,1,tag,MPI_COMM_WORLD); Con questa routine il processore chiamante P 0 spedisce il parametro n, di tipo MPI_INT e di dimensione 1, al processore P 1 ; i due processori appartengono entrambi al communicator MPI_COMM_WORLD. Il parametro tag individua univocamente tale spedizione. n n n P 0 P

29 In generale (comunicazione uno ad uno bloccante) : MPI_Send(void *buffer, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm); Il processore che esegue questa routine spedisce i primi count elementi di buffer, di tipo datatype, al processore con identificativo dest. L identificativo tag individua univocamente il messaggio nel contesto comm. 57 MPI_Send(void *buffer, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm); *buffer count indirizzo del dato da spedire numero dei dati da spedire datatype tipo dei dati da spedire dest identificativo del processore destinatario t i comm identificativo del communicator tag identificativo del messaggio 58 29

30 #include <stdio.h> #include mpi.h int main(int argc, char *argv[]) { int menum, nproc; int n, tag, num; MPI_Status info; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&menum); if(menum==0) { scanf( %d,&n); tag=10; MPI_Send(&n,1,MPI_INT,1,tag,MPI_COMM_WORLD); else { tag=10; MPI_Recv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&info); MPI_Get_count(&info,MPI_INT,&num); MPI_Finalize(); return 0; 59 MPI_Recv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&info); Con questa routine il processore chiamante P 1 riceve il parametro n, di tipo MPI_INT e di dimensione 1, dal processore P 0 ; i due processori appartengono entrambi al communicator MPI_COMM_WORLD. Il parametro tag individua univocamente tale spedizione. Il parametro info, di tipo MPI_Status, contiene informazioni sulla ricezione del messaggio. n n P 1 P 0 n 60 30

31 In generale (comunicazione uno ad uno bloccante) : MPI_Recv(voidvoid *buffer, int count, MPI_Datatype datatype, int source, int tag, MPI_Comm comm, MPI_Status *status); Il processore che esegue questa routine riceve i primi count elementi in buffer, del tipo datatype, dal processore con identificativo source. L identificativo tag individua id univocamente il messaggio in comm. status è un tipo predefinito di MPI che racchiude informazioni sulla ricezione del messaggio. 61 MPI_Recv(voidvoid *buffer, int count, MPI_Datatype datatype, int source, int tag, MPI_Comm comm, MPI_Status *status); *buffer indirizzo del dato in cui ricevere count numero dei dati da ricevere datatype tipo dei dati da ricevere source comm identificativo del processore da cui ricevere identificativo del communicator tag identificativo del messaggio 62 31

32 #include <stdio.h> #include mpi.h int main(int argc, char *argv[]) { int menum, nproc; int n, tag, num; MPI_Status info; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&menum); if(menum==0) { scanf( %d,&n); tag=10; MPI_Send(&n,1,MPI_INT,1,tag,MPI_COMM_WORLD); else { tag=10; MPI_Recv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&info); MPI_Get_count(&info,MPI_INT,&num); MPI_Finalize(); return 0; 63 MPI_Get_count(&info,MPI_INT,&num); num : numero di elementi ricevuti Questa routine permette al processore chiamante di conoscere il numero, num, di elementi ricevuti, di tipo MPI_INT, nella spedizione individuata da info. P 0 num num P 1 =1 =

33 MPI_GET_COUNT(MPI_StatusMPI_Status *status MPI_Datatype datatype, int *count); MPI_Status in C è un tipo di dato strutturato, composto da tre campi: - identificativo del processore da cui ricevere - identificativo del messaggio - indicatore di errore Il processore che esegue questa routine, memorizza nella variabile count il numero di elementi, di tipo datatype, che riceve dal messaggio e dal processore indicati nella variabile status. 65 MPI_Recv termina quando il messaggio è stato effettivamente ricevuto MPI_Send non è detto che il messaggio è stato effettivamente consegnato due modalità sincrona :il controllo ritorna solo se recv ha iniziato la ricezione buffered : il controllo ritorna appena il dato è stato copiato in un buffer Il funzionamento di default dipende dalla libreria buffered per size piccole sincrona per size grandi 66 33

34 Si può forzare una delle due modalità MPI_Ssend send sincrona La sintassi è come quella di MPI_ Send 67 MPI_Bsend send buffered La sintassi è come quella di MPI_ Send Il programmatore non può assumere la presenza di un buffer di sistema Deve effettuare un operazione di buffer attach e buffer detach MPI_Buffer_attach(*buf,int size) MPI_Buffer_detach(*buf,int size) buf indirizzo del buffer da allocare/deallocare size dimensione in byte del buffer 68 34

35 Comunicazioni non bloccanti in MPI: modalità Immediate Funzione non bloccante per la spedizione di un messaggio: MPI_Isend Funzione non bloccante per la ricezione di un messaggio: MPI_Irecv 69 Un semplice programma con 2 processori: #include <stdio.h> #include mpi.h int main(int argc, char *argv[]) { int menum, nproc, n, tag; MPI_Request rqst; MPI_Init(&argc,&argv); Init(&argc &argv); MPI_Comm_rank(MPI_COMM_WORLD,&menum); if(menum==0) { scanf( %d,&n); tag=20; MPI_Isend(&n,1,MPI_INT,1,tag,MPI_COMM_WORLD,&rqst); else { tag=20; MPI_Irecv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&rqst); MPI_Finalize(); return 0; 70 35

36 MPI_Isend(&n,1,,1,MPI_INT,1,tag,MPI_COMM_WORLD,&rqst) Il processore chiamante P 0 spedisce il parametro n, di tipo MPI_INTINT e di dimensione i 1, al processore P 1.Il parametro tag individua univocamente tale spedizione. Il parametro rqst contiene le informazioni dell intera spedizione. Il processore P 0, appena inviato il parametro n, è libero di procedere nelle successive istruzioni che non implicano accesso ai dati coinvolti nella spedizione fino a che non è terminata 71 In generale (comunicazione uno ad uno non bloccante) : MPI_Isend(void *buffer, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm, MPI_Request *request); Il processore che esegue questa routine spedisce i primi count elementi di buffer, del tipo datatype, al processore con identificativo dest. L identificativo tag individua univocamente il messaggio in comm. L oggetto request crea un nesso tra la trasmissione e la ricezione del messaggio 72 36

37 #include <stdio.h> #include mpi.h int main(int argc, char *argv[]) { int menum, nproc, n, tag; MPI_Request rqst; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&menum); if(menum==0) { scanf( %d,&n); tag=20; MPI_Isend(&n,1,MPI_INT,1,tag,MPI_COMM_WORLD,&rqst); else { tag=20; MPI_Irecv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&rqst); MPI_Finalize(); return 0; 73 MPI_Irecv(&n,1,,1,MPI_INT,0,tag,MPI_COMM_WORLD,&rqst) Il processore chiamante P 1 riceve il parametro n, di tipo MPI_INT e di dimensione 1, dal processore P 0. Il parametro tag individua univocamente tale ricezione. Il parametro rqst contiene le informazioni dell intera spedizione. Il processore P 1, appena ricevuto il parametro n, è libero di procedere nelle successive istruzioni che non implicano accesso ai dati coinvolti nella spedizione fino a che non è terminata 74 37

38 Ricezione di un messaggio (comunicazione uno ad uno) MPI_Irecv(void *buffer, int count, MPI_Datatype datatype, int source, int tag, MPI_Comm comm, MPI_Request *request); Il processore che esegue questa routine riceve i primi count elementi in buffer, del tipo datatype, dal processore con identificativo source. L identificativo tag individua univocamente il messaggio in comm. L oggetto request crea un nesso tra la trasmissione e la ricezione del messaggio. 75 In particolare: request Le operazioni non bloccanti utilizzano l oggetto request di un tipo predefinito it di MPI: MPI_Request. Tale oggetto collega l operazione che inizia la comunicazione in esame con l operazione che la termina

39 Osservazione L oggetto request ha nelle comunicazioni, un ruolo simile a quello di status. status contiene informazioni sulla ricezione del messaggio. request contiene informazioni su tutta la fase di trasmissione o di ricezione del messaggio. 77 Osservazione: termine di un operazione non bloccante Un'operazione non bloccante è terminata quando: Nel caso della spedizione, quando il buffer è nuovamente riutilizzabile dal programma. Nel caso della ricezione quando il messaggio è stato interamente ricevuto

40 Osservazione: termine di un operazione non bloccante Vettore x da spedire Operazione di spedizione non bloccante terminata Vettore x da ricevere Operazione di ricezione non bloccante terminata 79 Utilizzando una comunicazione non bloccante come si fa a sapere se l operazione di spedizione o di ricezione è stata terminata? 80 40

41 MPI mette a disposizione delle funzioni per controllare tutta la fase di trasmissione di un messaggio mediante comunicazione non bloccante. 81 Controllo sullo stato di un operazione non bloccante #include <stdio.h> #include mpi.h int main(int argc, char *argv[]) { int flag,nloc; nloc=1; if(menum==0) { scanf( %d,&n); tag=20; MPI_Isend(&n,1,MPI_INT,1,tag,MPI_COMM_WORLD,&rqst); if(menum!=0) { tag=20; MPI_Irecv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&rqst); MPI_Test(&rqst,&flag,&info); &flag &info); if(flag==1){ nloc+=n;else{ MPI_Wait(&rqst,&info); nloc+=n; printf( nloc=%d \n,nloc); 82 41

42 MPI_Test(&rqst,&flag,&info); Il processore chiamante P 1 verifica se la ricezione di n, individuata da rqst, è stata completata; in questo caso flag=1 e procede all incremento di nloc. Altrimenti flag=0 83 MPI_Test(MPI_RequestMPI_Request *request, int *flag, MPI_Status *status); Il processore che esegue questa routine testa lo stato della comunicazione non bloccante, identificata da request. La funzione MPI_ Test ritorna l intero flag: flag = 1, l operazione identificata da request è terminata; flag = 0, l operazione identificata da request NON è terminata; 84 42

43 #include <stdio.h> #include mpi.h int main(int argc, char *argv[]) { int flag,nloc; nloc=1; if(menum==0) { scanf( %d,&n); tag=20; MPI_Isend(&n,1,MPI_INT,1,tag,MPI_COMM_WORLD,&rqst); if(menum!=0) { tag=20; MPI_Irecv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&rqst); MPI_Test(&rqst,&flag,&info); &flag &info); if(flag==1){ nloc+=n;else{ MPI_Wait(&rqst,&info); nloc+=n; printf( nloc=%d \n,nloc); 85 MPI_Wait(&rqst,&info); Il processore chiamante P 1 procede nelle istruzioni solo quando la ricezione di n è stata completata

44 In generale : MPI_Wait(MPI_RequestMPI_Request *request, MPI_Status *status); Il processore che esegue questa routine controlla lo stato della comunicazione non bloccante, identificata da request, e si arresta solo quando l operazione in esame si è conclusa. In status si hanno informazioni sul completamento dell operazione di Wait. 87 Vantaggi delle operazioni non bloccanti Le comunicazioni di tipo non bloccante hanno DUE vantaggi: 1) Il processore non è obbligato ad aspettare in stato di attesa. if(menum==0) { scanf( %d,&n); tag=20; MPI_Isend(&n,1,MPI_INT,1,tag,MPI_COMM_WORLD,&rqst); /* P 0 può procedere nelle operazioni senza dover attendere il risultato della spedizione di n al processore P 1 */ if(menum!=0) { 88 44

45 2) Più comunicazioni possono avere luogo contemporaneamente sovrapponendosi almeno in parte tra loro. if(menum==0) { /* P 0 spedisce due elementi a P 1 */ MPI_Isend(&a,1,MPI_INT,1,0,MPI_COMM_WPRLD,&rqst1); MPI_Isend(&b,1,MPI_INT,1,0,MPI_COMM_WORLD,&rqst2); elseif(menum==1) { /* P 1 riceve due elementi da P 0 secondo l ordine di spedizione*/ MPI_Irecv(&a,1,MPI_INT,0,0,MPI_COMM_WORLD,&rqst1); MPI_Irecv(&b,1,MPI_INT,0,0,MPI_COMM_WORLD,&rqst2); svantaggio la programmazione è più complicata 89 45

Alcuni strumenti per lo sviluppo di software su architetture MIMD

Alcuni strumenti per lo sviluppo di software su architetture MIMD Alcuni strumenti per lo sviluppo di software su architetture MIMD Calcolatori MIMD Architetture SM (Shared Memory) OpenMP Architetture DM (Distributed Memory) MPI 2 MPI : Message Passing Interface MPI

Dettagli

MPI è una libreria che comprende:

MPI è una libreria che comprende: 1 Le funzioni di MPI MPI è una libreria che comprende: Funzioni per definire l ambiente Funzioni per comunicazioni uno a uno Funzioni percomunicazioni collettive Funzioni peroperazioni collettive 2 1 3

Dettagli

Non blocking. Contro. La programmazione di uno scambio messaggi con funzioni di comunicazione non blocking e' (leggermente) piu' complicata

Non blocking. Contro. La programmazione di uno scambio messaggi con funzioni di comunicazione non blocking e' (leggermente) piu' complicata Non blocking Una comunicazione non blocking e' tipicamente costituita da tre fasi successive: L inizio della operazione di send/receive del messaggio Lo svolgimento di un attivita' che non implichi l accesso

Dettagli

Programmazione di base

Programmazione di base 1 0.1 INTRODUZIONE Al giorno d oggi il calcolo parallelo consiste nell esecuzione contemporanea del codice su più processori al fine di aumentare le prestazioni del sistema. In questo modo si superano

Dettagli

Primi Programmi con MPI 1

Primi Programmi con MPI 1 Il cluster che usiamo: spaci Esercitazione: Primi Programmi con MPI http://www.na.icar.cnr.it/grid/#spacina Spacina è un cluster HP XC 6000 / Linux a 64 nodi biprocessore. La configurazione hardware dei

Dettagli

A.d'Alessio. Calcolo Parallelo. Esempi di topologie

A.d'Alessio. Calcolo Parallelo. Esempi di topologie Message Passing Interface MPI Le topologie 1 Esempi di topologie Anello Griglia Toro L utilizzo di una topologia per la progettazione di un algoritmo in ambiente MIMD è spesso legata alla geometria intrinseca

Dettagli

Introduzione a MPI Algoritmi e Calcolo Parallelo. Daniele Loiacono

Introduzione a MPI Algoritmi e Calcolo Parallelo. Daniele Loiacono Introduzione a MPI Algoritmi e Calcolo Parallelo Riferimenti! Tutorial on MPI Lawrence Livermore National Laboratory https://computing.llnl.gov/tutorials/mpi/ Cos è MPI? q MPI (Message Passing Interface)

Dettagli

Calcolo parallelo con MPI (2ª parte)

Calcolo parallelo con MPI (2ª parte) Calcolo parallelo con MPI (2ª parte) Approfondimento sulle comunicazioni point-to-point La comunicazione non blocking Laboratorio n 3 MPI virtual topologies Laboratorio n 4 2 Modalità di comunicazione

Dettagli

Comunicazione. La comunicazione point to point e' la funzionalita' di comunicazione fondamentale disponibile in MPI

Comunicazione. La comunicazione point to point e' la funzionalita' di comunicazione fondamentale disponibile in MPI Comunicazione La comunicazione point to point e' la funzionalita' di comunicazione fondamentale disponibile in MPI Concettualmente la comunicazione point to point e' molto semplice: Un processo invia un

Dettagli

Università degli Studi di Napoli Parthenope. Corso di Calcolo Parallelo e Distribuito. Virginia Bellino Matr. 108/1570

Università degli Studi di Napoli Parthenope. Corso di Calcolo Parallelo e Distribuito. Virginia Bellino Matr. 108/1570 Università degli Studi di Napoli Parthenope Corso di Calcolo Parallelo e Distribuito Virginia Bellino Matr. 108/1570 Virginia Bellino Progetto 1 Corso di Calcolo Parallelo e Distribuito 2 Indice Individuazione

Dettagli

Unità F1. Obiettivi. Il linguaggio C. Il linguaggio C++ Linguaggio C. Pseudolinguaggio. Primi programmi

Unità F1. Obiettivi. Il linguaggio C. Il linguaggio C++ Linguaggio C. Pseudolinguaggio. Primi programmi Obiettivi Unità F1 Primi programmi Conoscere il significato di dichiarazione e definizione di variabili Conoscere i tipi di dato numerici Essere in grado di realizzare semplici algoritmi in pseudolinguaggio

Dettagli

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A Pietro Frasca.

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A Pietro Frasca. Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A. 2017-18 Pietro Frasca Lezione 9 Giovedì 2-11-2017 Comunicazione con pipe Oltre che con la memoria condivisa

Dettagli

GESTIONE DEI FILE IN C. Docente: Giorgio Giacinto AA 2008/2009

GESTIONE DEI FILE IN C. Docente: Giorgio Giacinto AA 2008/2009 Università degli Studi di Cagliari Corso di Laurea Specialistica in Ingegneria per l Ambiente ed il Territorio Corso di Laurea Specialistica in Ingegneria Civile - Strutture FONDAMENTI DI INFORMATICA 2

Dettagli

Laboratorio di Calcolo Parallelo

Laboratorio di Calcolo Parallelo Laboratorio di Calcolo Parallelo Lezione 1: Introduzione a C ed MPI Francesco Versaci & Alberto Bertoldo Università di Padova 5 maggio 2009 Francesco Versaci (Università di Padova) Laboratorio di Calcolo

Dettagli

Calcolo parallelo. Una sola CPU (o un solo core), per quanto potenti, non sono sufficienti o richiederebbero tempi lunghissimi

Calcolo parallelo. Una sola CPU (o un solo core), per quanto potenti, non sono sufficienti o richiederebbero tempi lunghissimi Calcolo parallelo Ci sono problemi di fisica, come le previsioni meteorologiche o alcune applicazioni grafiche, che richiedono un enorme potenza di calcolo Una sola CPU (o un solo core), per quanto potenti,

Dettagli

Input/output da file I/O ANSI e I/O UNIX FLUSSI E FILE FLUSSI FLUSSI di TESTO FLUSSI BINARI FILE

Input/output da file I/O ANSI e I/O UNIX FLUSSI E FILE FLUSSI FLUSSI di TESTO FLUSSI BINARI FILE Input/output da file Il linguaggio C non contiene istruzioni di I/O, in quanto tali operazioni vengono eseguite tramite funzioni di libreria standard. Questo approccio rende estremamente flessibile e potente

Dettagli

Modelli di programmazione parallela

Modelli di programmazione parallela Modelli di programmazione parallela Oggi sono comunemente utilizzati diversi modelli di programmazione parallela: Shared Memory Multi Thread Message Passing Data Parallel Tali modelli non sono specifici

Dettagli

Linguaggio C: introduzione

Linguaggio C: introduzione Dipartimento di Elettronica ed Informazione Politecnico di Milano Informatica e CAD (c.i.) - ICA Prof. Pierluigi Plebani A.A. 2008/2009 Linguaggio C: introduzione La presente dispensa e da utilizzarsi

Dettagli

Prodotto Matrice - Vettore in MPI II Strategia

Prodotto Matrice - Vettore in MPI II Strategia Facoltà di Ingegneria Corso di Studi in Ingegneria Informatica Esercitazione di Calcolo Parallelo Prodotto Matrice - Vettore in MPI II Strategia Anno Accademico 2010/2011 Prof.ssa Alessandra D'alessio

Dettagli

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A Pietro Frasca.

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A Pietro Frasca. Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A. 2016-17 Pietro Frasca Lezione 20 Giovedì 22-12-2016 Comunicazione: pipe In Unix, processi possono comunicare

Dettagli

Prodotto Matrice - Vettore in MPI - III Strategia

Prodotto Matrice - Vettore in MPI - III Strategia Facoltà di Ingegneria Corso di Studi in Ingegneria Informatica Esercitazione di Calcolo Parallelo Prodotto Matrice - Vettore in MPI - III Strategia Anno Accademico 2010/2011 Prof.ssa Alessandra D'alessio

Dettagli

UNIVERSITA DEGLI STUDI DI NAPOLI FEDERICO II

UNIVERSITA DEGLI STUDI DI NAPOLI FEDERICO II UNIVERSITA DEGLI STUDI DI NAPOLI FEDERICO II PROGETTO DI CALCOLO PARALLELO SOMMA DEGLI ELEMENTI DI UN VETTORE STUDENTE Gabriele Piantadosi (885/000282) 1. OBIETTIVI E AMBIENTE DI CALCOLO Si vuole distribuire

Dettagli

Le strutture. Una struttura C è una collezione di variabili di uno o più tipi, raggruppate sotto un nome comune.

Le strutture. Una struttura C è una collezione di variabili di uno o più tipi, raggruppate sotto un nome comune. Le strutture Una struttura C è una collezione di variabili di uno o più tipi, raggruppate sotto un nome comune. Dichiarazione di una struttura: struct point { int x; int y; }; La dichiarazione di una struttura

Dettagli

ACSO Programmazione di Sistema e Concorrente

ACSO Programmazione di Sistema e Concorrente ACSO Programmazione di Sistema e Concorrente P2 Modello Thread 2/12/2015 programma e parallelismo il tipo di parallelismo dipende dal grado di cooperazione (scambio di informazione) necessario tra attività

Dettagli

Linguaggio C. Generalità sulle Funzioni. Variabili locali e globali. Passaggio di parametri per valore.

Linguaggio C. Generalità sulle Funzioni. Variabili locali e globali. Passaggio di parametri per valore. Linguaggio C Generalità sulle Funzioni. Variabili locali e globali. Passaggio di parametri per valore. 1 Funzioni Generalizzazione del concetto di funzione algebrica: legge che associa a valori delle variabili

Dettagli

Esame Laboratorio di Sistemi Operativi Cognome Nome Mat.

Esame Laboratorio di Sistemi Operativi Cognome Nome Mat. Il compito è costituito da domande chiuse, domande aperte ed esercizi. Non è consentito l uso di libri, manuali, appunti., etc. Tempo massimo 2 ore. Domande chiuse: ogni domanda corrisponde ad un punteggio

Dettagli

Primi passi col linguaggio C

Primi passi col linguaggio C Andrea Marin Università Ca Foscari Venezia Laurea in Informatica Corso di Programmazione part-time a.a. 2011/2012 Come introdurre un linguaggio di programmazione? Obiettivi: Introduciamo una macchina astratta

Dettagli

C O P Y R I G H T ( C ) W W W. F O N D A M E N T I. I N F O

C O P Y R I G H T ( C ) W W W. F O N D A M E N T I. I N F O Il linguaggio C C O P Y R I G H T ( C ) 2 0 0 8 W W W. F O N D A M E N T I. I N F O P E R M I S S I O N I S G R A N T E D T O C O P Y, D I S T R I B U T E A N D / O R M O D I F Y T H I S D O C U M E N

Dettagli

Premessa. Input /output e gestione dei file. I file e gli stream. Il puntatore al file. 21. I FILE NEL LINGUAGGIO C Versione 1.

Premessa. Input /output e gestione dei file. I file e gli stream. Il puntatore al file. 21. I FILE NEL LINGUAGGIO C Versione 1. Input /output e gestione dei file Premessa Iniziamo la lezione dicendo subito che per INPUT/OUTPUT si intende l insieme delle operazioni di ingresso ed uscita, ossia lo scambio di informazioni tra il programma

Dettagli

INTRODUZIONE ALLA PROGRAMMAZIONE AD ALTO LIVELLO IL LINGUAGGIO JAVA. Fondamenti di Informatica - D. Talia - UNICAL 1. Fondamenti di Informatica

INTRODUZIONE ALLA PROGRAMMAZIONE AD ALTO LIVELLO IL LINGUAGGIO JAVA. Fondamenti di Informatica - D. Talia - UNICAL 1. Fondamenti di Informatica Fondamenti di Informatica INTRODUZIONE ALLA PROGRAMMAZIONE AD ALTO LIVELLO IL LINGUAGGIO JAVA Fondamenti di Informatica - D. Talia - UNICAL 1 Fondamenti di Informatica - Programma Un programma è una formulazione

Dettagli

il tipo di parallelismo dipende dal grado di cooperazione

il tipo di parallelismo dipende dal grado di cooperazione Thread Settembre 2009 programma e parallelismo il tipo di parallelismo dipende dal grado di cooperazione (scambio d informazione) necessario tra attività svolte in parallelo processo macchina virtuale

Dettagli

ESECUZIONE DI PROGRAMMI C SU MACCHINE REALI. Docente: Giorgio Giacinto AA 2008/2009. formalizzazione degli algoritmi in linguaggio C

ESECUZIONE DI PROGRAMMI C SU MACCHINE REALI. Docente: Giorgio Giacinto AA 2008/2009. formalizzazione degli algoritmi in linguaggio C Università degli Studi di Cagliari Corso di Laurea Specialistica in Ingegneria per l Ambiente ed il Territorio Corso di Laurea Specialistica in Ingegneria Civile - Strutture FONDAMENTI DI INFORMATICA 2

Dettagli

Funzioni, Stack e Visibilità delle Variabili in C

Funzioni, Stack e Visibilità delle Variabili in C Funzioni, Stack e Visibilità delle Variabili in C Programmazione I e Laboratorio Corso di Laurea in Informatica A.A. 2016/2017 Calendario delle lezioni Lez. 1 Lez. 2 Lez. 3 Lez. 4 Lez. 5 Lez. 6 Lez. 7

Dettagli

Il Modello a scambio di messaggi

Il Modello a scambio di messaggi Il Modello a scambio di messaggi 1 Interazione nel modello a scambio di messaggi Se la macchina concorrente e` organizzata secondo il modello a scambio di messaggi: PROCESSO=PROCESSO PESANTE non vi è memoria

Dettagli

Sviluppo di software parallelo con il sistema MPI

Sviluppo di software parallelo con il sistema MPI Sviluppo di software parallelo con il sistema MPI Sommario Cluster Beowulf Message Passing Installazione di MPI Routine di base di MPI Calcolo della somma di n numeri Gruppi di processi e topologie virtuali

Dettagli

Sistemi Operativi Teledidattico

Sistemi Operativi Teledidattico Sistemi Operativi Teledidattico Anno 2002 3a esercitazione 5/10/2002 Paolo Torroni processi fork (creazione di un figlio) exec (sostituzione di codice del programma in esecuzione) wait (attesa della terminazione

Dettagli

Reti (già Reti di Calcolatori )

Reti (già Reti di Calcolatori ) Reti (già Reti di Calcolatori ) Cenni di Socket Programming Renato Lo Cigno http://disi.unitn.it/locigno/index.php/teaching-duties/computer-networks Socket API Programmazione dei socket Obiettivo:imparare

Dettagli

Spazio di indirizzamento virtuale

Spazio di indirizzamento virtuale Programmazione M-Z Ingegneria e Scienze Informatiche - Cesena A.A. 016-01 Spazio di indirizzamento virtuale Pietro Di Lena - pietro.dilena@unibo.it // The function name says it all int stack_overflow (){

Dettagli

Linguaggio C e sistema operativo

Linguaggio C e sistema operativo FONDAMENTI DI INFORMATICA Prof. PIER LUCA MONTESSORO Ing. DAVIDE PIERATTONI Facoltà di Ingegneria Università degli Studi di Udine Linguaggio C e sistema operativo 2001 Pier Luca Montessoro - Davide Pierattoni

Dettagli

Libreria MPI. (Message Passing Interface)

Libreria MPI. (Message Passing Interface) Libreria MPI (Message Passing Interface) Standard Message Passing Interface (MPI) Il primo standard de jure per i linguaggi paralleli a scambio di messaggi (definisce le specifiche sintattiche e semantiche,

Dettagli

Modello a scambio di messaggi

Modello a scambio di messaggi Modello a scambio di messaggi Aspetti caratterizzanti il modello Canali di comunicazione Primitive di comunicazione 1 Aspetti caratterizzanti il modello modello architetturale di macchina (virtuale) concorrente

Dettagli

LA RICORSIONE IN C. CdL Ingegneria Informatica n.o. Anno Accademico 2006/07 Fondamenti di Informatica I corso A Giacomo Piscitelli pag.

LA RICORSIONE IN C. CdL Ingegneria Informatica n.o. Anno Accademico 2006/07 Fondamenti di Informatica I corso A Giacomo Piscitelli pag. I lucidi sono una rielaborazione e integrazione di quelli messi a disposizione dei docenti nel sito relativo al testo: Informatica: arte e mestiere 2/ed Stefano Ceri, Dino Mandrioli, Licia Sbattella Copyright

Dettagli

Variabili. Unità 2. Domenico Daniele Bloisi. Corso di Fondamenti di Informatica Ingegneria delle Comunicazioni BCOR Ingegneria Elettronica BELR

Variabili. Unità 2. Domenico Daniele Bloisi. Corso di Fondamenti di Informatica Ingegneria delle Comunicazioni BCOR Ingegneria Elettronica BELR Corso di Fondamenti di Informatica Ingegneria delle Comunicazioni BCOR Ingegneria Elettronica BELR Domenico Daniele Bloisi Docenti Parte I prof. Silvio Salza salza@dis.uniroma1.it http://www.dis.uniroma1.it/~salza/fondamenti.htm

Dettagli

Libreria MPI. (Message Passing Interface) Standard Message Passing Interface (MPI)

Libreria MPI. (Message Passing Interface) Standard Message Passing Interface (MPI) Libreria MPI (Message Passing Interface) Standard Message Passing Interface (MPI) Il primo standard de jure per i linguaggi paralleli a scambio di messaggi (definisce le specifiche sintattiche e semantiche,

Dettagli

Laboratorio Progettazione Web Le funzioni in PHP. Angelica Lo Duca IIT-CNR 2012/2013

Laboratorio Progettazione Web Le funzioni in PHP. Angelica Lo Duca IIT-CNR 2012/2013 Laboratorio Progettazione Web Le funzioni in PHP Angelica Lo Duca IIT-CNR angelica.loduca@iit.cnr.it 2012/2013 Funzioni Una funzione è una sequenza di istruzioni che implementano una specifica funzionalità

Dettagli

Una interfaccia GA ad alcune routines di ScaLAPACK

Una interfaccia GA ad alcune routines di ScaLAPACK Una interfaccia GA ad alcune routines di ScaLAPACK Giuseppe Vitillaro Dipartimento di Chimica Universita degli Studi di Perugia e-mail: Perugia, 30 Maggio 1996 Global Array (GA) toolkit

Dettagli

Perché il linguaggio C?

Perché il linguaggio C? Il linguaggio C 7 Perché il linguaggio C? Larga diffusione nel software applicativo Standard di fatto per lo sviluppo di software di sistema Visione a basso livello della memoria Capacità di manipolare

Dettagli

Funzioni in C. Funzioni. Strategie di programmazione. Funzioni in C. Come riusare il codice? (2/3) Come riusare il codice? (1/3)

Funzioni in C. Funzioni. Strategie di programmazione. Funzioni in C. Come riusare il codice? (2/3) Come riusare il codice? (1/3) Funzioni Il concetto di funzione Parametri formali e attuali Il valore di ritorno Definizione e chiamata di funzioni Passaggio dei parametri Corpo della funzione 2 Strategie di programmazione Riuso di

Dettagli

MPI in dettaglio. Chi ha definito MPI. Salvatore Orlando. CALCOLO PARALLELO - S. Orlando. CALCOLO PARALLELO - S. Orlando

MPI in dettaglio. Chi ha definito MPI. Salvatore Orlando. CALCOLO PARALLELO - S. Orlando. CALCOLO PARALLELO - S. Orlando MPI in dettaglio Salvatore Orlando 1 Chi ha definito MPI 2 Il modello Message-Passing Model Ad un processo è tradizionalmente associato con program counter & address space. Processi possono però avere

Dettagli

Addendum alle chiamate di sistema per la gestione processi. E Mumolo

Addendum alle chiamate di sistema per la gestione processi. E Mumolo Addendum alle chiamate di sistema per la gestione processi E Mumolo Definiamo un processo proc.c che scrive l'argomento passato in linea: void main(int argc, char *argv[]){ printf("sono il processo %s\n",

Dettagli

Input/Output. Lettura e scrittura Caratteri e Stringhe: Terminale e file. Input/output. caratteri stringhe formattato ascii binari

Input/Output. Lettura e scrittura Caratteri e Stringhe: Terminale e file. Input/output. caratteri stringhe formattato ascii binari Input/Output Lettura e scrittura Caratteri e Stringhe: Terminale e file Input/output console file caratteri stringhe formattato ascii binari Linguaggio ANSI C Input/Output - 1 La libreria standard del

Dettagli

Programmazione Orientata agli Oggetti. Emilio Di Giacomo e Walter Didimo

Programmazione Orientata agli Oggetti. Emilio Di Giacomo e Walter Didimo Programmazione Orientata agli Oggetti Emilio Di Giacomo e Walter Didimo Una metafora dal mondo reale la fabbrica di giocattoli progettisti Un semplice giocattolo Impara i suoni Dall idea al progetto Toy

Dettagli

Comunicazione tra Computer. Protocolli. Astrazione di Sottosistema di Comunicazione. Modello di un Sottosistema di Comunicazione

Comunicazione tra Computer. Protocolli. Astrazione di Sottosistema di Comunicazione. Modello di un Sottosistema di Comunicazione I semestre 03/04 Comunicazione tra Computer Protocolli Prof. Vincenzo Auletta auletta@dia.unisa.it http://www.dia.unisa.it/professori/auletta/ Università degli studi di Salerno Laurea in Informatica 2

Dettagli

Unità Didattica 1 Linguaggio C. Fondamenti. Struttura di un programma.

Unità Didattica 1 Linguaggio C. Fondamenti. Struttura di un programma. Unità Didattica 1 Linguaggio C Fondamenti. Struttura di un programma. 1 La storia del Linguaggio C UNIX (1969) - DEC PDP-7 Assembly Language BCPL - un OS facilmente accessibile che fornisce potenti strumenti

Dettagli

Linguaggio C - le strutture di controllo: sequenza, selezione, iterazione

Linguaggio C - le strutture di controllo: sequenza, selezione, iterazione Dipartimento di Elettronica ed Informazione Politecnico di Milano Informatica e CAD (c.i.) - ICA Prof. Pierluigi Plebani A.A. 2008/2009 Linguaggio C - le strutture di controllo: sequenza, selezione, iterazione

Dettagli

ERRATA CORRIGE. void SvuotaBuffer(void); void SvuotaBuffer(void) { if(getchar()!=10) {svuotabuffer();} }

ERRATA CORRIGE. void SvuotaBuffer(void); void SvuotaBuffer(void) { if(getchar()!=10) {svuotabuffer();} } ERRATA CORRIGE Pulizia del buffer di input: come fare? (1) Dopo aver richiamato getchar() per prelevare un carattere dal buffer di input, inseriamo una seconda chiamata a getchar(), senza assegnare il

Dettagli

Complementi. - Ridefinizione di tipo - - Costrutto switch - - Programmazione su più file - - Parametri della funzione main - Funzione system -

Complementi. - Ridefinizione di tipo - - Costrutto switch - - Programmazione su più file - - Parametri della funzione main - Funzione system - Complementi - Ridefinizione di tipo - - Costrutto switch - - Programmazione su più file - - Parametri della funzione main - Funzione system - Università degli Studi di Brescia Prof. Massimiliano Giacomin

Dettagli

C: panoramica. Violetta Lonati

C: panoramica. Violetta Lonati C: panoramica Violetta Lonati Università degli studi di Milano Dipartimento di Scienze dell Informazione Laboratorio di algoritmi e strutture dati Corso di laurea in Informatica AA 2009/2010 Violetta Lonati

Dettagli

Componenti principali. Programma cablato. Architettura di Von Neumann. Programma cablato. Cos e un programma? Componenti e connessioni

Componenti principali. Programma cablato. Architettura di Von Neumann. Programma cablato. Cos e un programma? Componenti e connessioni Componenti principali Componenti e connessioni Capitolo 3 CPU (Unita Centrale di Elaborazione) Memoria Sistemi di I/O Connessioni tra loro 1 2 Architettura di Von Neumann Dati e instruzioni in memoria

Dettagli

Variabili. Unità 2. Domenico Daniele Bloisi. Corso di Programmazione e Metodi Numerici Ingegneria Aerospaziale BAER

Variabili. Unità 2. Domenico Daniele Bloisi. Corso di Programmazione e Metodi Numerici Ingegneria Aerospaziale BAER Corso di Programmazione e Metodi Numerici Ingegneria Aerospaziale BAER Domenico Daniele Bloisi Docenti Metodi Numerici prof. Vittoria Bruni vittoria.bruni@sbai.uniroma1.it Programmazione prof. Domenico

Dettagli

I puntatori. Un puntatore è una variabile che contiene l indirizzo di un altra variabile. puntatore

I puntatori. Un puntatore è una variabile che contiene l indirizzo di un altra variabile. puntatore I puntatori Un puntatore è una variabile che contiene l indirizzo di un altra variabile. puntatore...... L operatore & fornisce l indirizzo di un oggetto: p = &c; assegna a p l indirizzo di c, i.e., p

Dettagli

IL PRIMO PROGRAMMA IN C

IL PRIMO PROGRAMMA IN C IL PRIMO PROGRAMMA IN C LO SCOPO Si vuole scrivere un programma in linguaggio C che chieda all utente di introdurre da tastiera due numeri interi e visualizzi il valore della loro somma sul video SOLUZIONE

Dettagli

Le direttive del Preprocessore

Le direttive del Preprocessore Le direttive del Preprocessore Prof. Orazio Mirabella Direttive Un compilatore traduce le istruzioni di un programma sorgente in linguaggio macchina Talvolta è conveniente prendere coscienza dell esistenza

Dettagli

Indice. La gestione dei file in C e gli stream. Apertura e chiusura di un file. Operazioni sui file. Accesso sequenziale e non sequenziale

Indice. La gestione dei file in C e gli stream. Apertura e chiusura di un file. Operazioni sui file. Accesso sequenziale e non sequenziale File in C Indice La gestione dei file in C e gli stream Apertura e chiusura di un file Operazioni sui file Accesso sequenziale e non sequenziale Gestione dei file in C In C all interno della standard library

Dettagli

Puntatori. Un puntatore contiene un numero che indica la locazione di memoria dove è presente la variabile puntata

Puntatori. Un puntatore contiene un numero che indica la locazione di memoria dove è presente la variabile puntata Puntatori int i = 10; int * pi = &i; pi i = 10 116 int * pi = pi contiene un informazione che mi permette di accedere ( puntare ) ad una variabile intera Un puntatore contiene un numero che indica la locazione

Dettagli

Il problema dello I/O e gli Interrupt. Appunti di Sistemi per la cl. 4 sez. D A cura del prof. Ing. Mario Catalano

Il problema dello I/O e gli Interrupt. Appunti di Sistemi per la cl. 4 sez. D A cura del prof. Ing. Mario Catalano Il problema dello I/O e gli Interrupt Appunti di Sistemi per la cl. 4 sez. D A cura del prof. Ing. Mario Catalano Il Calcolatore e le periferiche Periferica Decodifica Indirizzi Circuiti di Controllo Registri

Dettagli

Esercitazione 6. Array

Esercitazione 6. Array Esercitazione 6 Array Arrays Array (o tabella o vettore): è una variabile strutturata in cui è possibile memorizzare un numero fissato di valori tutti dello stesso tipo. Esempio int a[6]; /* dichiarazione

Dettagli

ESECUZIONE DI PROGRAMMI C SU MACCHINE REALI. Docente: Giorgio Giacinto AA 2009/2010

ESECUZIONE DI PROGRAMMI C SU MACCHINE REALI. Docente: Giorgio Giacinto AA 2009/2010 Università degli Studi di Cagliari Corso di Laurea Specialistica in Ingegneria per l Ambiente ed il Territorio Corso di Laurea Specialistica in Ingegneria Civile - Strutture FONDAMENTI DI INFORMATICA 2

Dettagli

Elementi lessicali. Lezione 4. La parole chiave. Elementi lessicali. Elementi lessicali e espressioni logiche. Linguaggi di Programmazione I

Elementi lessicali. Lezione 4. La parole chiave. Elementi lessicali. Elementi lessicali e espressioni logiche. Linguaggi di Programmazione I Lezione 4 Elementi lessicali e espressioni logiche Matricole 2-3 Elementi lessicali il linguaggio C ha un suo vocabolario di base i cui elementi sono detti token esistono 6 tipi di token: parole chiave

Dettagli

Componenti e connessioni. Capitolo 3

Componenti e connessioni. Capitolo 3 Componenti e connessioni Capitolo 3 Componenti principali CPU (Unità Centrale di Elaborazione) Memoria Sistemi di I/O Connessioni tra loro Architettura di Von Neumann Dati e instruzioni in memoria (lettura

Dettagli

5. I device driver. Device driver - gestori delle periferiche. Struttura interna del sistema operativo Linux. Tipi di periferiche. Tipi di periferiche

5. I device driver. Device driver - gestori delle periferiche. Struttura interna del sistema operativo Linux. Tipi di periferiche. Tipi di periferiche Device driver - gestori delle periferiche Struttura interna del sistema operativo Linux Sono moduli software che realizzano l interfacciamento e la gestione dei dispositivi periferici Interagiscono con

Dettagli

Componenti principali

Componenti principali Componenti e connessioni Capitolo 3 Componenti principali n CPU (Unità Centrale di Elaborazione) n Memoria n Sistemi di I/O n Connessioni tra loro Architettura di Von Neumann n Dati e instruzioni in memoria

Dettagli

eseguire comandi dati dall'utente, utilizzando una macchina reale, di livello inferiore,

eseguire comandi dati dall'utente, utilizzando una macchina reale, di livello inferiore, La programmazione di sistema Introduzione ai sistemi operativi multiprocesso Primitive per la gestione dei processi http://home.dei.polimi.it/silvano/acso.htm Il sistema ste operativo Il Sistema Operativo

Dettagli

Esercitazione 11. Liste semplici

Esercitazione 11. Liste semplici Esercitazione 11 Liste semplici Liste semplici (o lineari) Una lista semplice (o lineare) è una successione di elementi omogenei che occupano in memoria una posizione qualsiasi. Ciascun elemento contiene

Dettagli

Esercizi per il recupero del debito formativo:

Esercizi per il recupero del debito formativo: ANNO SCOLASTICO 2005/2006 CLASSE 4 ISC Esercizi per il recupero del debito formativo: Facendo esclusivamente uso delle istruzioni del linguaggio macchina mnemonico del microprocessore INTEL 8086 viste

Dettagli

Principles of Concurrent Programming

Principles of Concurrent Programming Principles of Giuseppe Anastasi g.anastasi@iet.unipi.it Pervasive Computing & Networking Lab. () Dept. of Information Engineering, University of Pisa Overview Concetti preliminari Interazione fra processi

Dettagli

Indirizzi e tipi puntatore a

Indirizzi e tipi puntatore a Linguaggio C Indirizzi e tipi puntatore a Università degli Studi di Brescia Prof. Massimiliano Giacomin Indirizzo e tipo puntatore a TIPO Indirizzo NOME Valore Indirizzo 0101011110011001 1101011110011111

Dettagli

Funzioni e. Alessandra Giordani Mercoledì 16 maggio 2012

Funzioni e. Alessandra Giordani Mercoledì 16 maggio 2012 Funzioni e passaggio parametri Alessandra Giordani agiordani@disi.unitn.it Mercoledì 16 maggio 2012 http://disi.unitn.it/~agiordani/ Cosa vedremo oggi Le funzioni Il passaggio dei parametri Le dichiarazioni

Dettagli

Gli array. impone al programma, in fase di esecuzione, di riservare dello spazio in memoria per 10 variabili di tipo int

Gli array. impone al programma, in fase di esecuzione, di riservare dello spazio in memoria per 10 variabili di tipo int Gli array Gli array rappresentano una modalità molto compatta per accedere ad un gruppo di variabili; tale gruppo è identificato dal nome dell'array; i tipi delle variabili appartenenti al gruppo devono

Dettagli

Preprocessore, linker e libreria standard

Preprocessore, linker e libreria standard Preprocessore, linker e libreria standard Università degli Studi di Brescia Prof. Massimiliano Giacomin Elementi di Informatica e Programmazione Università di Brescia 1 IL PREPROCESSORE Programma sorgente

Dettagli

Operazioni su file di caratteri

Operazioni su file di caratteri Operazioni su file di caratteri Apertura fopen Chiusura fclose Scrittura fprintf Lettura fscanf Controllo fine file feof Prof. E. Occhiuto INFORMATICA 242AA a.a. 2010/11 pag. 1 Apertura di un file: Si

Dettagli

TUTORATO di LINGUAGGI I

TUTORATO di LINGUAGGI I TUTORATO di LINGUAGGI I Enrico Vianello TUTORATO di LINGUAGGI I contatti utili LE LEZIONI SI TERRANNO: VENERDI 12.30-14.30 PER INFORMAZIONI e DOMANDE: enrico.vianello@student.unife.it IL MATERIALE UTILIZZATO

Dettagli

file fisico file logico

file fisico file logico I files Un file è una struttura di dati residente su una memoria di massa (file fisico) Un programma vede un file come una sequenza di bytes (file logico) Generalizzando, un file può comprendere qualsiasi

Dettagli

PROVA SCRITTA DEL CORSO DI CORSO DI LAUREA IN INGEGNERIA BIOMEDICA ED ELETTRICA 9/6/2008

PROVA SCRITTA DEL CORSO DI CORSO DI LAUREA IN INGEGNERIA BIOMEDICA ED ELETTRICA 9/6/2008 PROVA SCRITTA DEL CORSO DI CORSO DI LAUREA IN INGEGNERIA BIOMEDICA ED ELETTRICA 9/6/2008 MOTIVARE IN MANIERA CHIARA LE SOLUZIONI PROPOSTE A CIASCUNO DEGLI ESERCIZI SVOLTI ESERCIZIO 1 (5 punti) Descrivere

Dettagli

Tipi di dati strutturati e Linguaggio C. Record o strutture Il costruttore struct in C

Tipi di dati strutturati e Linguaggio C. Record o strutture Il costruttore struct in C Tipi di dati strutturati e Linguaggio C Record o strutture Il costruttore struct in C Dati strutturati Record Un record o struttura è una struttura dati ottenuta aggregando elementi di tipo diverso che

Dettagli

Strategie di programmazione

Strategie di programmazione Funzioni Funzioni in C Il concetto di funzione Parametri formali e attuali Il valore di ritorno Definizione e chiamata di funzioni Passaggio dei parametri Corpo della funzione 2 Funzioni in C Strategie

Dettagli

Panoramica Introduttiva su Inter-Process Communication (IPC)

Panoramica Introduttiva su Inter-Process Communication (IPC) Panoramica Introduttiva su Inter-Process Communication (IPC) Inter-Process Communication: panoramica (1) Dei processi si dicono cooperanti se si influenzano l'un con l'altro. Per potersi influenzare dei

Dettagli

Processore Danilo Dessì. Architettura degli Elaboratori.

Processore Danilo Dessì. Architettura degli Elaboratori. Processore 8088 Architettura degli Elaboratori Danilo Dessì danilo_dessi@unica.it Subroutine Anche nel linguaggio assemblativo è possibile suddividere un programma in subroutine Per invocare una subroutine

Dettagli

Informatica 1. Corso di Laurea Triennale in Matematica. Gianluca Rossi

Informatica 1. Corso di Laurea Triennale in Matematica. Gianluca Rossi Informatica 1 Corso di Laurea Triennale in Matematica Gianluca Rossi gianluca.rossi@uniroma2.it Dipartimento di Matematica Università di Roma Tor Vergata 11: Stringhe (www.informatica-uno.blogspot.com)

Dettagli

Breve Manuale di Riferimento sulla Sintassi Linguaggi C++ e FORTRAN

Breve Manuale di Riferimento sulla Sintassi Linguaggi C++ e FORTRAN Breve Manuale di Riferimento sulla Sintassi Linguaggi e versione aggiornata al 05/02/2004 Sommario Elementi di Base... 2 Dati, Tipi e Dichiarazioni... 2 Tipi di Dato di Base... 2 Tipi di Dato Strutturati...

Dettagli

Il linguaggio C. Puntatori e dintorni

Il linguaggio C. Puntatori e dintorni Il linguaggio C Puntatori e dintorni 1 Puntatori : idea di base In C è possibile conoscere e denotare l indirizzo della cella di memoria in cui è memorizzata una variabile (il puntatore) es : int a = 50;

Dettagli

Esercizio 1 (15 punti)

Esercizio 1 (15 punti) Esercizio 1 (15 punti) Corsi di laurea in Ingegnera Elettronica e Ingegneria Gestionale Fondamenti di Programmazione / Fondamenti di Informatica I Prova scritta del 16 giugno 2017 Il noto gioco MasterMind

Dettagli

RELAZIONE DELLA PROVA DI LABORATORIO DI INFORMATICA

RELAZIONE DELLA PROVA DI LABORATORIO DI INFORMATICA RELAZIONE DELLA PROVA DI LABORATORIO DI INFORMATICA Anno scolastico Lab informatica AULA n 35 Data inizio svolgimento Progr. relazione primo trimestre secondo pentamestre Cognome e Nome DATI DELLO STUDENTE

Dettagli

Capitolo 5 - Funzioni

Capitolo 5 - Funzioni Capitolo 5 - Funzioni Divide and conquer Introduzione Costruire un programma da pezzi più piccoli o da singole componenti Questi pezzi più piccoli sono chiamati moduli Ogni singolo pezzo è più facilmente

Dettagli

Cicli annidati ed Array multidimensionali

Cicli annidati ed Array multidimensionali Linguaggio C Cicli annidati ed Array multidimensionali Cicli Annidati In C abbiamo 3 tipi di cicli: while(exp) { do { while(exp); for(exp;exp;exp3) { Cicli annidati: un ciclo all interno del corpo di un

Dettagli

Scope delle variabili e passaggio parametri. Danilo Ardagna Politecnico di Milano

Scope delle variabili e passaggio parametri. Danilo Ardagna Politecnico di Milano Scope delle variabili e passaggio parametri Danilo Ardagna Politecnico di Milano 1-4-2014 Introduzione! Con le funzioni è stato introdotto un meccanismo per definire dei piccoli programmi all interno di

Dettagli

La gestione dei caratteri in C

La gestione dei caratteri in C in C In C i caratteri sono gestiti mediante variabili di tipo char (interi a 8 bit) Ad ogni carattere corrisponde un codice numerico ASCII (American Standard Code for Information Interchange) Un esempio

Dettagli

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A Pietro Frasca.

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A Pietro Frasca. Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A. 2014-15 Pietro Frasca Lezione 20 Martedì 16-12-2014 1 System call per la gestione dei processi Creazione

Dettagli

C espressioni condizionali

C espressioni condizionali C espressioni condizionali Esiste un particolare operatore, detto operatore condizionale, che rappresenta un istruzione if else. estremamente compattata?: Supponiamo di voler inserire nella variabile intera

Dettagli

Linguaggio C Struttura dei programmi

Linguaggio C Struttura dei programmi FONDAMENTI DI INFORMATICA Prof. PIER LUCA MONTESSORO Ing. DAVIDE PIERATTONI Facoltà di Ingegneria Università degli Studi di Udine Linguaggio C Struttura dei programmi 2001 Pier Luca Montessoro - Davide

Dettagli