1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano"

Transcript

1 Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1

2 Probabilità di errore nella trasmissione attraverso un canale Si consideri un canale di comunicazione discreto e senza memoria con ingresso la variabile aleatoria discreta X e con uscita la variabile aleatoria Y e con X Y. In un canale di questo tipo si può mettere in relazione il simbolo in ingresso x i con il simbolo in uscita y i. Definiamo la variabile aleatoria di errore E come la variabile aleatoria binaria che assume valore E e se si verifica l'evento _ congiunto {Xx i,yy j } con i j e assume valore E e se si verifica l'evento congiunto {Xx i,yy j } con ij Si può quindi definire la probabilità di errore come: E e) e) i 1 j 1 j i x i, y j )

3 Probabilità di errore nella trasmissione attraverso un canale Si noti che la probabilità di errore può essere definita solo per un canale con X Y. La probabilità di errore dipende sia dalle probabilità di transisione del canale (e quindi dalla matrice P) sia dalla massa di probabilità della variabile aleatoria X di ingresso al canale. 3

4 Capacità di un canale discreto senza memoria La capacità C di un canale discreto senza memoria viene definita come il massimo flusso di informazione al variare della distribuzione di probabilità dell alfabeto di ingresso, ovvero: C max x ( i ) I( X ; Y ) Per come è definita la capacità di canale, essa non dipende dalla massa di probabilità della variabile aleatoria X di ingresso, ma dipende soltanto dalle probabilità di transizione sul canale (e quindi dalla matrice P). 4

5 Capacità di un canale discreto senza memoria L'unità di misura della capacità è bit/simbolo o bit/channel use. Si dimostrerà che non si può avere una trasmissione affidabile attraverso il canale se il numero medio di bit per simbolo di canale eccede la capacità del canale (Teorema inverso della codifica di canale). La capacità di canale è limitata superiomente da: C min x ) i { log,log } Il calcolo analitico della capacità C è difficoltoso nella maggior parte dei casi. X Y 5

6 Capacità di un canale discreto senza memoria Sia T il periodo di simbolo ed R1/T la frequenza di trasmissione; attraverso il canale viene trasmesso un simbolo ogni T secondi. Definiamo capacità per secondo di un canale discreto senza memoria la quantità: C B C T R C 6

7 Capacità di un canale uniforme Un canale uniforme in genere non è simmetrico. Ricordiamo il teorema: la H(Y X) di un canale uniforme è indipendente dalle probabilità di ingresso ed è data da: Y 1 H ( Y X ) q j log H ( q, q,..., q bit simbolo Y 1 ) / Y j 1 q j in cui ogni riga della matrice di canale è una permutazione dello stesso insieme di probabilità q j, j1,..., Y. Di conseguenza la capacità di un canale uniforme è data da: C [ H ( Y ) H ( Y X )] max H ( Y ) H ( q, q,..., q ) max 1 P x ) ( ) Y i P xi ( Y 7

8 Capacità di un canale simmetrico Per un canale simmetrico si comunque applicare il precedente teorema su H(Y X) valido per un canale uniforme e scrivere: Y 1 H ( Y X ) q j log H ( q, q,..., q bit simbolo Y 1 ) / Y j 1 q j Di conseguenza massimizzare: significa massimizzare H(Y). I(X;Y) H(Y) - H(Y X) Per canale simmetrico ricordiamo che dal Teorema enunciato in precedenza, una distribuzione uniforme in ingresso produce una distribuzione uniforme in uscita. Di conseguenza: C max[ H ( Y ) H ( Y X )] max H ( Y ) H ( q1, q,..., q ) ( ) ( ) Y P x Y i P xi log H ( q, q,..., q ) Y Y 1 Y 8

9 Esempio di calcolo di capacità per un canale simmetrico Canale simmetrico con matrice: 1/ 3 1/ 3 P 1/ 6 1/ 6 la capacità è data in generale da: 1/ 6 1/ 3 1/ 6 1/ 3 nell esempio Y 4, e si ha: Y C log Y q j log 1 j 1 ( q ) j C log + log bit / simbolo 9

10 Capacità di un canale simmetrico di ordine Per un canale simmetrico di ordine e probabilità di errore p in cui: X Y le righe e le colonne di P sono in questo caso permutazioni degli numeri: 1 (1 p), i j p ij p /( 1), i p p,,..., 1 Pertanto la capacità di questo canale è: p 1 j C log + (1 p)log(1 p) + p log p 1 10

11 Capacità del canale non rumoroso Ricordiamo che per un canale non rumoroso si ha X Y e: pi, j 0 se i j, altrimenti pi, i 1 H(X Y) 0 H(Y X) 0 H(X,Y) H(X) H(Y) La capacità si calcola facilmente come: C [ H ( Y ) H ( Y X )] max H ( Y ) log max xi ) x i ) 11

12 Capacità del canale inutile Si ricordi che per un canale inutile si ha X Y ed i simboli d uscita sono indipendenti da quelli d ingresso, ovvero: P ( y j xi ) y j ) H(X Y) H(X) H(Y X) H(Y) H(X,Y) H(X) + H(Y) La capacità risulta: C [ H ( Y ) H ( Y )] 0 max X x i ) 1

13 Capacità del canale BSC Si ricordi che un canale binario simmetrico è un canale con X Y e con la seguente matrice di probabilità di transizione: Utilizzando il risultato sulla capacità di un canale simmetrico, capacità del canale BSC risulta: C log Y H Y ( q1, q,..., q ) 1 H ( r) 1+ r log r + (1 r)log(1 r Y ) 13

14 Capacità del canale BSC La capacità del canale BSC si ottiene per ingresso con distribuzione uniforme e quindi per x 1 )x )1/. La capacità del canale BSC è una funzione della probabilità di inversione r. Per un canale BSC la probabilità di errore è indipendente dalla distribuzione di probabilità dei simboli d'ingresso ed è: e) i 1 j 1 j i xi, y j ) r OTA: per la simmetria del canale si ha H (r) H (1-r), e quindi: C BSC (r) C BSC (1-r) La trattazione del canale BSC va ristretta al caso in cui: 0 r 1/, e) 1/. r Capacità del BSC in funzione della probabilità di errore r 14

15 Capacità del canale BEC Si ricordi che un canale binario a cancellazione ha due ingressi e tre uscite ed è caratterizzato dalla seguente matrice delle probabilità di transizione: Ponendo x 1 ) q è stato calcolato in precedenza: H(Y) [ r log r + (1 r) log(1 r) + q (1 r) log q + (1 q )(1 r) log(1 q) ] H (r) + (1 r)h (q) H(Y X) H (r) Da cui: C [ H ( Y ) H ( Y X )] max(1 r) H ( q) r max 1 x) q 15

16 Capacità di un canale BEC La capacità del canale BEC si ottiene per ingresso con distribuzione uniforme e quindi per x 1 )q1/. La capacità del canale BEC è una funzione della probabilità di cancellazione r. 1 C 0 1 r 16

17 Capacità di canali in cascata La capacità del canale equivalente costituito dalla cascata di due canali discreti e senza memoria è limitata superiormente: C equiv min { C C } 1, X Y Canale 1 Canale Z 17

18 Disuguaglianza di Fano Sia H(X Y) che e) possono essere usate come misura della qualità del canale, e sono tra loro dipendenti. Definiamo la variabile aleatoria di errore E come la variabile aleatoria binaria che assume valore E e se si verifica l'evento congiunto _ {Xx i,yy j } con i j e assume valore E e se si verifica l'evento congiunto {Xx i,yy j } con ij L entropia d'errore H(E) è definita come l'entropia della v.a. errore E: [ 1 e) ] log [ 1 )] H ( E) e)log e) e H(E) è la quantità di informazione necessaria per specificare se è occorso un errore su un canale con probabilità d errore e) data da: E e) e) i 1 j 1 j i x i, y j ) 18

19 Teorema (di Fano): dato un canale discreto senza memoria, con: X Y e con probabilità d errore e), vale la seguente disuguaglianza di Fano: Disuguaglianza di Fano H ( X Y ) H ( E) + e) log( 1) ovvero: [ 1 e) ] log [ 1 )] H ( X Y ) e)log ( 1) e)log e) e 19

20 Disuguaglianza di Fano Interpretazione intuitiva: rilevare l occorrenza di un errore alla ricezione del simbolo y Y rimuove un incertezza H(E) H(E) + e) log (-1) Regione permessa per le coppie e), H(X Y) H(X Y) H(E) + e) log (-1) 1) Se si rivela che non c è stato errore, l incertezza residua H(X Y) riguardo il simbolo trasmesso è zero ) Se si rivela che c è stato un errore, occorre decidere quale dei rimanenti (-1) simboli sia stato trasmesso; l incertezza residua non eccede log (-1) 0

21 Teorema inverso della codifica di canale Dal teorema sulla disuguaglianza di Fano possiamo derivare anche un altro risultato. Poiché H(X Y) H(X) - I(X;Y), la disuguaglianza di Fano fornisce un limite inferiore alla probabilità di errore in termini di eccesso d entropia dell alfabeto X d ingresso rispetto al flusso informativo attraverso il canale: H(X) - I(X;Y) f (e), ) H(E) + e)log (-1) 1

22 Teorema inverso della codifica di canale Considerando che: I(X;Y)H(X)-H(X Y) e che I(X;Y) C, allora: H(X) - H(X Y) C e cioè H(X) - C H(X Y), e applicando la disuguaglianza di Fano al secondo membro si ha: H(X) - C H(E) + e)log (-1) Curva: C + H(E) + e)log (-1) Regione permessa per le coppie e), H(X) H(X) C + H(E) + e)log (-1) Grafico della funzione C+H(E)+e)log (-1) in funzione di e)

23 Teorema inverso della codifica di canale OTA: la regione di coppie consentite ( e), H(X) ) contiene punti con ascissa e) 0 solo se H(X) C Teorema inverso della codifica: se l entropia dell alfabeto d ingresso H(X) eccede la capacità di canale C è impossibile trasmettere informazione attraverso il canale con probabilità d errore e) arbitrariamente piccola 3

24 Teorema inverso della codifica di canale Se si identifica l alfabeto di ingresso del canale con l alfabeto di uscita del codificatore di sorgente, la situazione descritta corrisponde ad un sistema di comunicazione dove i simboli all uscita del codificatore di sorgente sono inviati direttamente attraverso il canale, senza effettuare la codifica di canale. Verrà in seguito incluso il codificatore di canale nel sistema e verranno estesi i risultati precedenti. 4

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

Codifica sorgente e canale

Codifica sorgente e canale Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:

Dettagli

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

1) Hamming bound, coset, codici equivalenti

1) Hamming bound, coset, codici equivalenti Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle

Dettagli

2) Codici univocamente decifrabili e codici a prefisso.

2) Codici univocamente decifrabili e codici a prefisso. Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il

Dettagli

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

Teoria dell Informazione

Teoria dell Informazione Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

3) Entropie condizionate, entropie congiunte ed informazione mutua

3) Entropie condizionate, entropie congiunte ed informazione mutua Argoment della Lezone ) Coppe d varabl aleatore 2) Canale dscreto senza memora 3) Entrope condzonate, entrope congunte ed nformazone mutua 4) Esemp d canal Coppe d varabl aleatore Fno ad ora è stata consderata

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

3. TEORIA DELL INFORMAZIONE

3. TEORIA DELL INFORMAZIONE 3. TEORIA DELL INFORMAZIONE INTRODUZIONE MISURA DI INFORMAZIONE SORGENTE DISCRETA SENZA MEMORIA ENTROPIA DI UNA SORGENTE NUMERICA CODIFICA DI SORGENTE 1 TEOREMA DI SHANNON CODICI UNIVOCAMENTE DECIFRABILI

Dettagli

L informazione numerica

L informazione numerica L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

Sorgenti discrete e informazione

Sorgenti discrete e informazione Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Sistemi II. Sistemi II. Elisabetta Colombo

Sistemi II. Sistemi II. Elisabetta Colombo Corso di Approfondimenti di Matematica per Biotecnologie, Anno Accademico 2011-2012, http://users.mat.unimi.it/users/colombo/programmabio.html 1 2 3 con R.C.+ o 1.10 Rango massimo e determinante con R.C.+

Dettagli

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione Codifica di canale (dalle dispense e dalle fotocopie) Codici lineari a blocchi Un codice lineare (n,k) è un codice che assegna una parola lunga n ad ogni blocco lungo k. Si dice che il codice abbia un

Dettagli

1 Esercizio - caso particolare di ottimalità

1 Esercizio - caso particolare di ottimalità Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto

Dettagli

Roberto Maieli La trasmissione dell informazione

Roberto Maieli La trasmissione dell informazione Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio

Dettagli

Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016.

Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016. Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016 Di seguito si riporta il riassunto degli argomenti svolti; i riferimenti sono a parti del Cap8 Elementi di geometria e algebra lineare Par5

Dettagli

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

Indici di posizione e dispersione per distribuzioni di variabili aleatorie Indici di posizione e dispersione per distribuzioni di variabili aleatorie 12 maggio 2017 Consideriamo i principali indici statistici che caratterizzano una distribuzione: indici di posizione, che forniscono

Dettagli

Metodi per la risoluzione di sistemi lineari

Metodi per la risoluzione di sistemi lineari Metodi per la risoluzione di sistemi lineari Sistemi di equazioni lineari. Rango di matrici Come è noto (vedi [] sez.0.8), ad ogni matrice quadrata A è associato un numero reale det(a) detto determinante

Dettagli

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione. Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x

Dettagli

STATISTICA (2) ESERCITAZIONE 2. Dott.ssa Antonella Costanzo

STATISTICA (2) ESERCITAZIONE 2. Dott.ssa Antonella Costanzo STATISTICA (2) ESERCITAZIONE 2 5.02.2014 Dott.ssa Antonella Costanzo Esercizio 1. La v.c. Normale: uso delle tavole E noto che un certo tipo di dati si distribuiscono secondo una gaussiana di media 10

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

4) Teorema fondamentale della codifica di canale. 6) Definizione di codifica di canale (FEC e ARQ)

4) Teorema fondamentale della codifica di canale. 6) Definizione di codifica di canale (FEC e ARQ) Argomenti della Lezione 1) Classificazione dei codici di canale 2) Benefici della codifica di canale 3) Decodifica hard e soft 4) Teorema fondamentale della codifica di canale 5) Classificazione dei codici

Dettagli

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere

Dettagli

Codifica delle sequenze sorgente

Codifica delle sequenze sorgente Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

Metodi per la risoluzione di sistemi lineari

Metodi per la risoluzione di sistemi lineari Metodi per la risoluzione di sistemi lineari 1 Sistemi di equazioni lineari 1.1 Determinante di matrici quadrate Ad ogni matrice quadrata A è associato un numero reale det(a) detto determinante della matrice

Dettagli

Distribuzioni di Probabilità

Distribuzioni di Probabilità Distribuzioni di Probabilità Distribuzioni discrete Distribuzione uniforme discreta Distribuzione di Poisson Distribuzioni continue Distribuzione Uniforme Distribuzione Gamma Distribuzione Esponenziale

Dettagli

M.P. Cavaliere ELEMENTI DI MATEMATICA E LOGICA MATEMATICA DISCRETA STRUTTURE ALGEBRICHE

M.P. Cavaliere ELEMENTI DI MATEMATICA E LOGICA MATEMATICA DISCRETA STRUTTURE ALGEBRICHE M.P. Cavaliere ELEMENTI DI MATEMATICA E LOGICA MATEMATICA DISCRETA STRUTTURE ALGEBRICHE Operazioni in un insieme Sia A un insieme non vuoto; una funzione f : A A A si dice operazione binaria (o semplicemente

Dettagli

Svolgimento degli esercizi del Capitolo 1

Svolgimento degli esercizi del Capitolo 1 Analisi Matematica a edizione Svolgimento degli esercizi del Capitolo a) Si ha perciò si distinguono due casi: I) se x < 7,siha x 7 se x 7 x 7 7 x se x < 7, x 7 7 x x x 5 x 5, e poiché 5 > 7 la disequazione

Dettagli

Anno 4 Matrice inversa

Anno 4 Matrice inversa Anno 4 Matrice inversa 1 Introduzione In questa lezione parleremo della matrice inversa di una matrice quadrata: definizione metodo per individuarla Al termine della lezione sarai in grado di: descrivere

Dettagli

Corso di Fondamenti di Telecomunicazioni

Corso di Fondamenti di Telecomunicazioni Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Prof. Giovanni Schembra 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati

Dettagli

Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari

Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari Antonio Lanteri e Cristina Turrini UNIMI - 2016/2017 Antonio Lanteri e Cristina Turrini (UNIMI - 2016/2017 Elementi di Algebra Lineare

Dettagli

λ è detto intensità e rappresenta il numero di eventi che si

λ è detto intensità e rappresenta il numero di eventi che si ESERCITAZIONE N 1 STUDIO DI UN SISTEMA DI CODA M/M/1 1. Introduzione Per poter studiare un sistema di coda occorre necessariamente simulare gli arrivi, le partenze e i tempi di ingresso nel sistema e di

Dettagli

Nota: Eventi meno probabili danno maggiore informazione

Nota: Eventi meno probabili danno maggiore informazione Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =

Dettagli

Il blocco amplificatore realizza la funzione di elevare il livello (di tensione o corrente) del segnale (in tensione o corrente) in uscita da una

Il blocco amplificatore realizza la funzione di elevare il livello (di tensione o corrente) del segnale (in tensione o corrente) in uscita da una l blocco amplificatore realizza la funzione di elevare il livello (di tensione o corrente) del segnale (in tensione o corrente) in uscita da una sorgente. Nel caso, come riportato in figura, il segnale

Dettagli

ESERCIZIO SVOLTO N 1 ESERCIZIO SVOLTO N 2. Determinare e rappresentare graficamente il dominio della funzione

ESERCIZIO SVOLTO N 1 ESERCIZIO SVOLTO N 2. Determinare e rappresentare graficamente il dominio della funzione ESERCIZIO SVOLTO N 1 Determinare e rappresentare graficamente il dominio della funzione f(x, y) = y 2 x 2 Trovare gli eventuali punti stazionari e gli estremi di f Il dominio della funzione è dato da dom

Dettagli

Risoluzione di sistemi lineari sparsi e di grandi dimensioni

Risoluzione di sistemi lineari sparsi e di grandi dimensioni Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica

Dettagli

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 16/06/2016 NOME: COGNOME: MATRICOLA: Esercizio 1 Cinque lettere

Dettagli

R. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010

R. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010 1 11. Data link layer: codici di rilevazione di errore, gestione degli errori La rilevazione di errore Un codice a rilevazione di errore ha lo scopo di permettere al ricevente di determinare se vi sono

Dettagli

I teoremi della funzione inversa e della funzione implicita

I teoremi della funzione inversa e della funzione implicita I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1

Dettagli

SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI

SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI Appunti presi dalle lezioni del prof. Nedo Checcaglini Liceo Scientifico di Castiglion Fiorentino (Classe 4B) January 17, 005 1 SISTEMI LINEARI Se a ik, b i R,

Dettagli

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio; TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale

Dettagli

Introduzione all inferenza statistica, II lezione

Introduzione all inferenza statistica, II lezione T (X) è sufficiente? (2) Introduzione all inferenza statistica, II lezione Carla Rampichini Dipartimento di Statistica Giuseppe Parenti - Firenze - Italia carla@ds.unifi.it - www.ds.unifi.it/rampi/ TEOREMA

Dettagli

La teoria dell informazione

La teoria dell informazione La teoria dell informazione Perché la teoria dell informazione è importante per la linguistica computazionale 2005 Isabella Chiari 1 Informatica Informazione+automatica = informatica Trattamento automatico

Dettagli

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I 01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore

Dettagli

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI Pagine di Algebra lineare di premessa al testo Pagine di Geometria di Sara Dragotti Parte terza: SISTEMI LINEARI 1. Definizioni Dato un campo K ed m 1 polinomi su K in n indeterminate di grado non superiore

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

Laboratorio di Programmazione Laurea in Ingegneria Civile e Ambientale

Laboratorio di Programmazione Laurea in Ingegneria Civile e Ambientale Dipartimento di Ingegneria dell Informazione Università degli Studi di Parma Laboratorio di Programmazione Laurea in Ingegneria Civile e Ambientale Algebra di Boole Stefano Cagnoni Algebra di Boole L algebra

Dettagli

Conversione Analogico/Digitale

Conversione Analogico/Digitale Conversione Analogico/Digitale 1 Fondamenti di Segnali e Trasmissione Conversione analogico/digitale (A/D) Per rappresentare numericamente un segnale continuo nel tempo e nelle ampiezze è necessario: Campionare

Dettagli

Figura 1 Trasformazione proibita dal Secondo Principio

Figura 1 Trasformazione proibita dal Secondo Principio ENUNCIATO DEL SECONDO PRINCIPIO DELLA TERMODINAMICA Si dice sorgente di calore o serbatoio di calore alla temperatura θ un corpo che si trovi uniformemente alla temperatura θ e sia in condizioni di scambiare

Dettagli

LEZIONE Equazioni matriciali. Negli Esempi e si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = R m,n, B = (b i,h ) 1 i m

LEZIONE Equazioni matriciali. Negli Esempi e si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = R m,n, B = (b i,h ) 1 i m LEZIONE 4 41 Equazioni matriciali Negli Esempi 336 e 337 si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = B 2,, AX p = B p aventi la stessa matrice incompleta A Tale tipo di problema si presenta

Dettagli

1) Codici ciclici. 2) Esempi di codici ciclici. 3) Algoritmi di codifica e decodifica. 4) Circuiti di codifica

1) Codici ciclici. 2) Esempi di codici ciclici. 3) Algoritmi di codifica e decodifica. 4) Circuiti di codifica Argomenti della Lezione ) Codici ciclici 2) Esempi di codici ciclici 3) Algoritmi di codifica e decodifica 4) Circuiti di codifica Codici ciclici Un codice lineare a blocchi (n,k) è ciclico se e solo se

Dettagli

9. Sistemi di Modulazione Numerica in banda traslata. Modulo TLC:TRASMISSIONI Modulazione numerica in banda traslata

9. Sistemi di Modulazione Numerica in banda traslata. Modulo TLC:TRASMISSIONI Modulazione numerica in banda traslata 1 9. Sistemi di Modulazione Numerica in banda traslata Modulazione QAM (analogica) 2 Modulazione QAM (Quadrature Amplitude Modulation; modulazione di ampiezza con portanti in quadratura) è un tipo di modulazione

Dettagli

SISTEMI LINEARI. x y + 2t = 0 2x + y + z t = 0 x z t = 0 ; S 3 : ; S 5x 2y z = 1 4x 7y = 3

SISTEMI LINEARI. x y + 2t = 0 2x + y + z t = 0 x z t = 0 ; S 3 : ; S 5x 2y z = 1 4x 7y = 3 SISTEMI LINEARI. Esercizi Esercizio. Verificare se (,, ) è soluzione del sistema x y + z = x + y z = 3. Trovare poi tutte le soluzioni del sistema. Esercizio. Scrivere un sistema lineare di 3 equazioni

Dettagli

1 Alcuni risultati sulle variabili Gaussiane multivariate

1 Alcuni risultati sulle variabili Gaussiane multivariate Il modello lineare-gaussiano e il filtro di Kalman Prof. P.Dai Pra 1 Alcuni risultati sulle variabili Gaussiane multivariate In questo paragrafo verranno enunciate e dimostrate alcune proprietà del valor

Dettagli

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati.

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati. LEZIONE 2 2 Sistemi di equazioni lineari Definizione 2 Un equazione lineare nelle n incognite x, x 2,, x n a coefficienti reali, è un equazione della forma (2 a x + a 2 x 2 + + a n x n = b, ove a j, b

Dettagli

Variabili casuali multidimensionali

Variabili casuali multidimensionali Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità.

Dettagli

RETI DI TELECOMUNICAZIONE

RETI DI TELECOMUNICAZIONE RETI DI TELECOMUNICAZIONE CATENE DI MARKOV TEMPO CONTINUE Definizioni Sia dato un processo stocastico x(t) che può assumere valori discreti appartenenti ad un insieme se accade che il processo è una catena

Dettagli

Ulteriori conoscenze di informatica Elementi di statistica Esercitazione3

Ulteriori conoscenze di informatica Elementi di statistica Esercitazione3 Ulteriori conoscenze di informatica Elementi di statistica Esercitazione3 Sui PC a disposizione sono istallati diversi sistemi operativi. All accensione scegliere Windows. Immettere Nome utente b## (##

Dettagli

Grafi e Funzioni di Costo ESERCIZI

Grafi e Funzioni di Costo ESERCIZI Grafi e Funzioni di Costo ESERCIZI Esercizio1 Si determini la matrice di incidenza archi-percorsi ed i costi di percorso per la rete di trasporto rappresentata in figura. 1 4 2 3 5 Ramo Costo Ramo Costo

Dettagli

Lezioni di Informarica. Prof. Giovanni Occhipinti

Lezioni di Informarica. Prof. Giovanni Occhipinti Lezioni di Informarica Prof. Giovanni Occhipinti 23 settembre 2010 2 Indice 1 La codifica delle Informazioni 5 1.1 Il sistema binario........................... 5 1.1.1 Conversione da binario a decimale.............

Dettagli

CANALE STAZIONARIO CANALE TEMPO INVARIANTE

CANALE STAZIONARIO CANALE TEMPO INVARIANTE CANALE STAZIONARIO Si parla di un Canale Stazionario quando i fenomeni che avvengono possono essere modellati da processi casuali e le proprietà statistiche di tali processi sono indipendenti dal tempo.

Dettagli

15 Informazione e Predizione

15 Informazione e Predizione (FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo

Dettagli

1 Entropia: Riepilogo

1 Entropia: Riepilogo Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,

Dettagli

ESPONENZIALI E LOGARITMI. chiameremo logaritmica (e si legge il logaritmo in base a di c è uguale a b ).

ESPONENZIALI E LOGARITMI. chiameremo logaritmica (e si legge il logaritmo in base a di c è uguale a b ). ESPONENZIALI E LOGARITMI Data una espressione del tipo a b = c, che chiameremo notazione esponenziale (e dove a>0), stabiliamo di scriverla anche in un modo diverso: log a c = b che chiameremo logaritmica

Dettagli

Lezione 6 Richiami di Geometria Analitica

Lezione 6 Richiami di Geometria Analitica 1 Piano cartesiano Lezione 6 Richiami di Geometria Analitica Consideriamo nel piano due rette perpendicolari che si intersecano in un punto O Consideriamo ciascuna di queste rette come retta orientata

Dettagli

Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE

Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati e aleatori Architettura

Dettagli

Esercizio. Una moneta viene lanciata 1000 volte. Su 1000 lanci, per 600 volte esce croce. Quale è la ridondanza presente nella moneta?

Esercizio. Una moneta viene lanciata 1000 volte. Su 1000 lanci, per 600 volte esce croce. Quale è la ridondanza presente nella moneta? Una sorgente di informazione può produrre 8 diversi simboli con probabilità diverse, e presenta una entropia effettiva di 2.4 bit/simbolo. Quale è il numero medio di byte necessari per contenere un messaggio

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Pivoting e stabilità Se la matrice A non appartiene a nessuna delle categorie precedenti può accadere che al k esimo passo risulti a (k) k,k = 0, e quindi il

Dettagli

MISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE

MISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE MISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE La distanza focale f di una lente convergente sottile è data dalla formula: da cui 1 f = 1 p + 1 q f = pq p + q dove p e q sono, rispettivamente, le

Dettagli

Metodo di Gauss-Jordan 1

Metodo di Gauss-Jordan 1 Metodo di Gauss-Jordan 1 Nota Bene: Questo materiale non debe essere considerato come sostituto delle lezioni. Ārgomenti svolti: Riduzione per righe e matrici equivalenti per righe. Forma echelon e sistemi

Dettagli

x 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 =

x 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 = 56 IL METODO DEL SIMPLESSO 7.4 IL METODO DEL SIMPLESSO In questo paragrafo sono riportati alcuni esercizi risolti sul metodo del simplesso. Alcuni sono risolti utilizzando la procedura di pivot per determinare,

Dettagli

Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente

Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente Firenze - Dip. di Fisica 2 agosto 2008 Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente In questa dispensa, che presentiamo a semplice titolo di esercizio e applicazione

Dettagli

Scheda n.3: densità gaussiana e Beta

Scheda n.3: densità gaussiana e Beta Scheda n.3: densità gaussiana e Beta October 10, 2008 1 Definizioni generali Chiamiamo densità di probabilità (pdf ) ogni funzione integrabile f (x) definita per x R tale che i) f (x) 0 per ogni x R ii)

Dettagli

Moduli combinatori Barbara Masucci

Moduli combinatori Barbara Masucci Architettura degli Elaboratori Moduli combinatori Barbara Masucci Punto della situazione Ø Abbiamo studiato le reti logiche e la loro minimizzazione Ø Obiettivo di oggi: studio dei moduli combinatori di

Dettagli

2x 5y +4z = 3 x 2y + z =5 x 4y +6z = A =

2x 5y +4z = 3 x 2y + z =5 x 4y +6z = A = Esercizio 1. Risolvere il sistema lineare 2x 5y +4z = x 2y + z =5 x 4y +6z =10 (1) Soluz. La matrice dei coefficienti è 1 4 6, calcoliamone il rango. Il determinante di A è (applico la regola di Sarrus):

Dettagli

Distribuzioni di due variabili aleatorie

Distribuzioni di due variabili aleatorie Statistica e analisi dei dati Data: 6 Maggio 206 Distribuzioni di due variabili aleatorie Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori Distribuzioni congiunte e marginali Consideriamo due variabili

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Pivoting e stabilità Se la matrice A non appartiene a nessuna delle categorie precedenti può accadere che al k esimo passo risulti a (k) k,k = 0, e quindi il

Dettagli

LEZIONE 1 C =

LEZIONE 1 C = LEZIONE 1 11 Matrici a coefficienti in R Definizione 111 Siano m, n Z positivi Una matrice m n a coefficienti in R è un insieme di mn numeri reali disposti su m righe ed n colonne circondata da parentesi

Dettagli

Codifica di sorgente. esempio di sorgente con memoria

Codifica di sorgente. esempio di sorgente con memoria Codifica di sorgente esercitazione su sorgenti markoviane 1 esempio di sorgente con memoria Esempio di sorgente con memoria markoviana a due stati NB: per la simmetria del sistema, i simboli sono equiprobabili

Dettagli

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI Anna TORRE Dipartimento di Matematica, Università di Pavia, Via Ferrata 1, 27100, Pavia, Italy. E-mail: anna.torre@unipv.it 1 SOLUZIONI:

Dettagli

UNIVERSITA` di ROMA TOR VERGATA

UNIVERSITA` di ROMA TOR VERGATA UNIVERSITA` di ROMA TOR VERGATA Corso di PS2-Probabilità 2 P.Baldi appello, 7 giugno 200 Corso di Laurea in Matematica Esercizio Siano X, Y v.a. indipendenti di legge Ŵ(2, λ). Calcolare densità e la media

Dettagli

Il teorema di Lagrange e la formula di Taylor

Il teorema di Lagrange e la formula di Taylor Il teorema di Lagrange e la formula di Taylor Il teorema del valor medio di Lagrange, valido per funzioni reali di una variabile reale, si estende alle funzioni reali di più variabili. Come si vedrà, questo

Dettagli

Sintesi Sequenziale Sincrona Sintesi Comportamentale di reti Sequenziali Sincrone

Sintesi Sequenziale Sincrona Sintesi Comportamentale di reti Sequenziali Sincrone Sintesi Sequenziale Sincrona Sintesi Comportamentale di reti Sequenziali Sincrone Il problema dell assegnamento degli stati versione del 9/1/03 Sintesi: Assegnamento degli stati La riduzione del numero

Dettagli

Risoluzione di sistemi lineari

Risoluzione di sistemi lineari Risoluzione di sistemi lineari Teorema (Rouché-Capelli) Dato il sistema di m equazioni in n incognite Ax = b, con A M at(m, n) b R n x R n [A b] si ha che: matrice dei coefficienti, vettore dei termini

Dettagli

0.1. MATRICI SIMILI 1

0.1. MATRICI SIMILI 1 0.1. MATRICI SIMILI 1 0.1 Matrici simili Definizione 0.1.1. Due matrici A, B di ordine n si dicono simili se esiste una matrice invertibile P con la proprietà che P 1 AP = B. Con questa terminologia dunque

Dettagli

Rappresentazioni numeriche

Rappresentazioni numeriche Rappresentazioni numeriche Un numero è dotato di un valore una rappresentazione La rappresentazione di un numero è il sistema che utilizziamo per indicarne il valore. Normalmente è una sequenza (stringa)

Dettagli

Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )

Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = ) Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere A quanto corrisponde su base decimale un guadagno di 3 db? (Risp: = 259 25 2 A quanti watt corrisponde una potenza di - 25 db m? (Risp: 3,25-6

Dettagli

LOGICA SEQUENZIALE. Un blocco di logica puramente combinatoria è un. blocco con N variabili di ingresso e M variabili di uscita

LOGICA SEQUENZIALE. Un blocco di logica puramente combinatoria è un. blocco con N variabili di ingresso e M variabili di uscita LOGICA SEQUENZIALE Logica combinatoria Un blocco di logica puramente combinatoria è un blocco con N variabili di ingresso e M variabili di uscita che sono funzione (booleana) degli ingressi in un certo

Dettagli

Corso di Analisi Matematica Funzioni di una variabile

Corso di Analisi Matematica Funzioni di una variabile Corso di Analisi Matematica Funzioni di una variabile Laurea in Informatica e Comunicazione Digitale A.A. 2013/2014 Università di Bari ICD (Bari) Analisi Matematica 1 / 24 1 Generalità 2 Funzioni reali

Dettagli