1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
|
|
- Oreste Gigli
- 7 anni fa
- Visualizzazioni
Transcript
1 Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1
2 Probabilità di errore nella trasmissione attraverso un canale Si consideri un canale di comunicazione discreto e senza memoria con ingresso la variabile aleatoria discreta X e con uscita la variabile aleatoria Y e con X Y. In un canale di questo tipo si può mettere in relazione il simbolo in ingresso x i con il simbolo in uscita y i. Definiamo la variabile aleatoria di errore E come la variabile aleatoria binaria che assume valore E e se si verifica l'evento _ congiunto {Xx i,yy j } con i j e assume valore E e se si verifica l'evento congiunto {Xx i,yy j } con ij Si può quindi definire la probabilità di errore come: E e) e) i 1 j 1 j i x i, y j )
3 Probabilità di errore nella trasmissione attraverso un canale Si noti che la probabilità di errore può essere definita solo per un canale con X Y. La probabilità di errore dipende sia dalle probabilità di transisione del canale (e quindi dalla matrice P) sia dalla massa di probabilità della variabile aleatoria X di ingresso al canale. 3
4 Capacità di un canale discreto senza memoria La capacità C di un canale discreto senza memoria viene definita come il massimo flusso di informazione al variare della distribuzione di probabilità dell alfabeto di ingresso, ovvero: C max x ( i ) I( X ; Y ) Per come è definita la capacità di canale, essa non dipende dalla massa di probabilità della variabile aleatoria X di ingresso, ma dipende soltanto dalle probabilità di transizione sul canale (e quindi dalla matrice P). 4
5 Capacità di un canale discreto senza memoria L'unità di misura della capacità è bit/simbolo o bit/channel use. Si dimostrerà che non si può avere una trasmissione affidabile attraverso il canale se il numero medio di bit per simbolo di canale eccede la capacità del canale (Teorema inverso della codifica di canale). La capacità di canale è limitata superiomente da: C min x ) i { log,log } Il calcolo analitico della capacità C è difficoltoso nella maggior parte dei casi. X Y 5
6 Capacità di un canale discreto senza memoria Sia T il periodo di simbolo ed R1/T la frequenza di trasmissione; attraverso il canale viene trasmesso un simbolo ogni T secondi. Definiamo capacità per secondo di un canale discreto senza memoria la quantità: C B C T R C 6
7 Capacità di un canale uniforme Un canale uniforme in genere non è simmetrico. Ricordiamo il teorema: la H(Y X) di un canale uniforme è indipendente dalle probabilità di ingresso ed è data da: Y 1 H ( Y X ) q j log H ( q, q,..., q bit simbolo Y 1 ) / Y j 1 q j in cui ogni riga della matrice di canale è una permutazione dello stesso insieme di probabilità q j, j1,..., Y. Di conseguenza la capacità di un canale uniforme è data da: C [ H ( Y ) H ( Y X )] max H ( Y ) H ( q, q,..., q ) max 1 P x ) ( ) Y i P xi ( Y 7
8 Capacità di un canale simmetrico Per un canale simmetrico si comunque applicare il precedente teorema su H(Y X) valido per un canale uniforme e scrivere: Y 1 H ( Y X ) q j log H ( q, q,..., q bit simbolo Y 1 ) / Y j 1 q j Di conseguenza massimizzare: significa massimizzare H(Y). I(X;Y) H(Y) - H(Y X) Per canale simmetrico ricordiamo che dal Teorema enunciato in precedenza, una distribuzione uniforme in ingresso produce una distribuzione uniforme in uscita. Di conseguenza: C max[ H ( Y ) H ( Y X )] max H ( Y ) H ( q1, q,..., q ) ( ) ( ) Y P x Y i P xi log H ( q, q,..., q ) Y Y 1 Y 8
9 Esempio di calcolo di capacità per un canale simmetrico Canale simmetrico con matrice: 1/ 3 1/ 3 P 1/ 6 1/ 6 la capacità è data in generale da: 1/ 6 1/ 3 1/ 6 1/ 3 nell esempio Y 4, e si ha: Y C log Y q j log 1 j 1 ( q ) j C log + log bit / simbolo 9
10 Capacità di un canale simmetrico di ordine Per un canale simmetrico di ordine e probabilità di errore p in cui: X Y le righe e le colonne di P sono in questo caso permutazioni degli numeri: 1 (1 p), i j p ij p /( 1), i p p,,..., 1 Pertanto la capacità di questo canale è: p 1 j C log + (1 p)log(1 p) + p log p 1 10
11 Capacità del canale non rumoroso Ricordiamo che per un canale non rumoroso si ha X Y e: pi, j 0 se i j, altrimenti pi, i 1 H(X Y) 0 H(Y X) 0 H(X,Y) H(X) H(Y) La capacità si calcola facilmente come: C [ H ( Y ) H ( Y X )] max H ( Y ) log max xi ) x i ) 11
12 Capacità del canale inutile Si ricordi che per un canale inutile si ha X Y ed i simboli d uscita sono indipendenti da quelli d ingresso, ovvero: P ( y j xi ) y j ) H(X Y) H(X) H(Y X) H(Y) H(X,Y) H(X) + H(Y) La capacità risulta: C [ H ( Y ) H ( Y )] 0 max X x i ) 1
13 Capacità del canale BSC Si ricordi che un canale binario simmetrico è un canale con X Y e con la seguente matrice di probabilità di transizione: Utilizzando il risultato sulla capacità di un canale simmetrico, capacità del canale BSC risulta: C log Y H Y ( q1, q,..., q ) 1 H ( r) 1+ r log r + (1 r)log(1 r Y ) 13
14 Capacità del canale BSC La capacità del canale BSC si ottiene per ingresso con distribuzione uniforme e quindi per x 1 )x )1/. La capacità del canale BSC è una funzione della probabilità di inversione r. Per un canale BSC la probabilità di errore è indipendente dalla distribuzione di probabilità dei simboli d'ingresso ed è: e) i 1 j 1 j i xi, y j ) r OTA: per la simmetria del canale si ha H (r) H (1-r), e quindi: C BSC (r) C BSC (1-r) La trattazione del canale BSC va ristretta al caso in cui: 0 r 1/, e) 1/. r Capacità del BSC in funzione della probabilità di errore r 14
15 Capacità del canale BEC Si ricordi che un canale binario a cancellazione ha due ingressi e tre uscite ed è caratterizzato dalla seguente matrice delle probabilità di transizione: Ponendo x 1 ) q è stato calcolato in precedenza: H(Y) [ r log r + (1 r) log(1 r) + q (1 r) log q + (1 q )(1 r) log(1 q) ] H (r) + (1 r)h (q) H(Y X) H (r) Da cui: C [ H ( Y ) H ( Y X )] max(1 r) H ( q) r max 1 x) q 15
16 Capacità di un canale BEC La capacità del canale BEC si ottiene per ingresso con distribuzione uniforme e quindi per x 1 )q1/. La capacità del canale BEC è una funzione della probabilità di cancellazione r. 1 C 0 1 r 16
17 Capacità di canali in cascata La capacità del canale equivalente costituito dalla cascata di due canali discreti e senza memoria è limitata superiormente: C equiv min { C C } 1, X Y Canale 1 Canale Z 17
18 Disuguaglianza di Fano Sia H(X Y) che e) possono essere usate come misura della qualità del canale, e sono tra loro dipendenti. Definiamo la variabile aleatoria di errore E come la variabile aleatoria binaria che assume valore E e se si verifica l'evento congiunto _ {Xx i,yy j } con i j e assume valore E e se si verifica l'evento congiunto {Xx i,yy j } con ij L entropia d'errore H(E) è definita come l'entropia della v.a. errore E: [ 1 e) ] log [ 1 )] H ( E) e)log e) e H(E) è la quantità di informazione necessaria per specificare se è occorso un errore su un canale con probabilità d errore e) data da: E e) e) i 1 j 1 j i x i, y j ) 18
19 Teorema (di Fano): dato un canale discreto senza memoria, con: X Y e con probabilità d errore e), vale la seguente disuguaglianza di Fano: Disuguaglianza di Fano H ( X Y ) H ( E) + e) log( 1) ovvero: [ 1 e) ] log [ 1 )] H ( X Y ) e)log ( 1) e)log e) e 19
20 Disuguaglianza di Fano Interpretazione intuitiva: rilevare l occorrenza di un errore alla ricezione del simbolo y Y rimuove un incertezza H(E) H(E) + e) log (-1) Regione permessa per le coppie e), H(X Y) H(X Y) H(E) + e) log (-1) 1) Se si rivela che non c è stato errore, l incertezza residua H(X Y) riguardo il simbolo trasmesso è zero ) Se si rivela che c è stato un errore, occorre decidere quale dei rimanenti (-1) simboli sia stato trasmesso; l incertezza residua non eccede log (-1) 0
21 Teorema inverso della codifica di canale Dal teorema sulla disuguaglianza di Fano possiamo derivare anche un altro risultato. Poiché H(X Y) H(X) - I(X;Y), la disuguaglianza di Fano fornisce un limite inferiore alla probabilità di errore in termini di eccesso d entropia dell alfabeto X d ingresso rispetto al flusso informativo attraverso il canale: H(X) - I(X;Y) f (e), ) H(E) + e)log (-1) 1
22 Teorema inverso della codifica di canale Considerando che: I(X;Y)H(X)-H(X Y) e che I(X;Y) C, allora: H(X) - H(X Y) C e cioè H(X) - C H(X Y), e applicando la disuguaglianza di Fano al secondo membro si ha: H(X) - C H(E) + e)log (-1) Curva: C + H(E) + e)log (-1) Regione permessa per le coppie e), H(X) H(X) C + H(E) + e)log (-1) Grafico della funzione C+H(E)+e)log (-1) in funzione di e)
23 Teorema inverso della codifica di canale OTA: la regione di coppie consentite ( e), H(X) ) contiene punti con ascissa e) 0 solo se H(X) C Teorema inverso della codifica: se l entropia dell alfabeto d ingresso H(X) eccede la capacità di canale C è impossibile trasmettere informazione attraverso il canale con probabilità d errore e) arbitrariamente piccola 3
24 Teorema inverso della codifica di canale Se si identifica l alfabeto di ingresso del canale con l alfabeto di uscita del codificatore di sorgente, la situazione descritta corrisponde ad un sistema di comunicazione dove i simboli all uscita del codificatore di sorgente sono inviati direttamente attraverso il canale, senza effettuare la codifica di canale. Verrà in seguito incluso il codificatore di canale nel sistema e verranno estesi i risultati precedenti. 4
TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliCodifica sorgente e canale
Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:
DettagliEntropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...
Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
Dettagli1) Hamming bound, coset, codici equivalenti
Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
DettagliII Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17
II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
DettagliTeoria dell Informazione
Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
Dettagli3) Entropie condizionate, entropie congiunte ed informazione mutua
Argoment della Lezone ) Coppe d varabl aleatore 2) Canale dscreto senza memora 3) Entrope condzonate, entrope congunte ed nformazone mutua 4) Esemp d canal Coppe d varabl aleatore Fno ad ora è stata consderata
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
Dettagli3. TEORIA DELL INFORMAZIONE
3. TEORIA DELL INFORMAZIONE INTRODUZIONE MISURA DI INFORMAZIONE SORGENTE DISCRETA SENZA MEMORIA ENTROPIA DI UNA SORGENTE NUMERICA CODIFICA DI SORGENTE 1 TEOREMA DI SHANNON CODICI UNIVOCAMENTE DECIFRABILI
DettagliL informazione numerica
L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
Dettagli10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore
10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore
DettagliSistemi II. Sistemi II. Elisabetta Colombo
Corso di Approfondimenti di Matematica per Biotecnologie, Anno Accademico 2011-2012, http://users.mat.unimi.it/users/colombo/programmabio.html 1 2 3 con R.C.+ o 1.10 Rango massimo e determinante con R.C.+
DettagliCodifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione
Codifica di canale (dalle dispense e dalle fotocopie) Codici lineari a blocchi Un codice lineare (n,k) è un codice che assegna una parola lunga n ad ogni blocco lungo k. Si dice che il codice abbia un
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliRegistro Lezioni di Algebra lineare del 15 e 16 novembre 2016.
Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016 Di seguito si riporta il riassunto degli argomenti svolti; i riferimenti sono a parti del Cap8 Elementi di geometria e algebra lineare Par5
DettagliIndici di posizione e dispersione per distribuzioni di variabili aleatorie
Indici di posizione e dispersione per distribuzioni di variabili aleatorie 12 maggio 2017 Consideriamo i principali indici statistici che caratterizzano una distribuzione: indici di posizione, che forniscono
DettagliMetodi per la risoluzione di sistemi lineari
Metodi per la risoluzione di sistemi lineari Sistemi di equazioni lineari. Rango di matrici Come è noto (vedi [] sez.0.8), ad ogni matrice quadrata A è associato un numero reale det(a) detto determinante
DettagliInformatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.
Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x
DettagliSTATISTICA (2) ESERCITAZIONE 2. Dott.ssa Antonella Costanzo
STATISTICA (2) ESERCITAZIONE 2 5.02.2014 Dott.ssa Antonella Costanzo Esercizio 1. La v.c. Normale: uso delle tavole E noto che un certo tipo di dati si distribuiscono secondo una gaussiana di media 10
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
Dettagli4) Teorema fondamentale della codifica di canale. 6) Definizione di codifica di canale (FEC e ARQ)
Argomenti della Lezione 1) Classificazione dei codici di canale 2) Benefici della codifica di canale 3) Decodifica hard e soft 4) Teorema fondamentale della codifica di canale 5) Classificazione dei codici
DettagliLEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g
LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere
DettagliCodifica delle sequenze sorgente
Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliMetodi per la risoluzione di sistemi lineari
Metodi per la risoluzione di sistemi lineari 1 Sistemi di equazioni lineari 1.1 Determinante di matrici quadrate Ad ogni matrice quadrata A è associato un numero reale det(a) detto determinante della matrice
DettagliDistribuzioni di Probabilità
Distribuzioni di Probabilità Distribuzioni discrete Distribuzione uniforme discreta Distribuzione di Poisson Distribuzioni continue Distribuzione Uniforme Distribuzione Gamma Distribuzione Esponenziale
DettagliM.P. Cavaliere ELEMENTI DI MATEMATICA E LOGICA MATEMATICA DISCRETA STRUTTURE ALGEBRICHE
M.P. Cavaliere ELEMENTI DI MATEMATICA E LOGICA MATEMATICA DISCRETA STRUTTURE ALGEBRICHE Operazioni in un insieme Sia A un insieme non vuoto; una funzione f : A A A si dice operazione binaria (o semplicemente
DettagliSvolgimento degli esercizi del Capitolo 1
Analisi Matematica a edizione Svolgimento degli esercizi del Capitolo a) Si ha perciò si distinguono due casi: I) se x < 7,siha x 7 se x 7 x 7 7 x se x < 7, x 7 7 x x x 5 x 5, e poiché 5 > 7 la disequazione
DettagliAnno 4 Matrice inversa
Anno 4 Matrice inversa 1 Introduzione In questa lezione parleremo della matrice inversa di una matrice quadrata: definizione metodo per individuarla Al termine della lezione sarai in grado di: descrivere
DettagliCorso di Fondamenti di Telecomunicazioni
Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Prof. Giovanni Schembra 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati
DettagliElementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari
Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari Antonio Lanteri e Cristina Turrini UNIMI - 2016/2017 Antonio Lanteri e Cristina Turrini (UNIMI - 2016/2017 Elementi di Algebra Lineare
Dettagliλ è detto intensità e rappresenta il numero di eventi che si
ESERCITAZIONE N 1 STUDIO DI UN SISTEMA DI CODA M/M/1 1. Introduzione Per poter studiare un sistema di coda occorre necessariamente simulare gli arrivi, le partenze e i tempi di ingresso nel sistema e di
DettagliNota: Eventi meno probabili danno maggiore informazione
Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =
DettagliIl blocco amplificatore realizza la funzione di elevare il livello (di tensione o corrente) del segnale (in tensione o corrente) in uscita da una
l blocco amplificatore realizza la funzione di elevare il livello (di tensione o corrente) del segnale (in tensione o corrente) in uscita da una sorgente. Nel caso, come riportato in figura, il segnale
DettagliESERCIZIO SVOLTO N 1 ESERCIZIO SVOLTO N 2. Determinare e rappresentare graficamente il dominio della funzione
ESERCIZIO SVOLTO N 1 Determinare e rappresentare graficamente il dominio della funzione f(x, y) = y 2 x 2 Trovare gli eventuali punti stazionari e gli estremi di f Il dominio della funzione è dato da dom
DettagliRisoluzione di sistemi lineari sparsi e di grandi dimensioni
Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica
DettagliCorso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza
Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 16/06/2016 NOME: COGNOME: MATRICOLA: Esercizio 1 Cinque lettere
DettagliR. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010
1 11. Data link layer: codici di rilevazione di errore, gestione degli errori La rilevazione di errore Un codice a rilevazione di errore ha lo scopo di permettere al ricevente di determinare se vi sono
DettagliI teoremi della funzione inversa e della funzione implicita
I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1
DettagliSISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI
SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI Appunti presi dalle lezioni del prof. Nedo Checcaglini Liceo Scientifico di Castiglion Fiorentino (Classe 4B) January 17, 005 1 SISTEMI LINEARI Se a ik, b i R,
Dettagliun elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;
TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale
DettagliIntroduzione all inferenza statistica, II lezione
T (X) è sufficiente? (2) Introduzione all inferenza statistica, II lezione Carla Rampichini Dipartimento di Statistica Giuseppe Parenti - Firenze - Italia carla@ds.unifi.it - www.ds.unifi.it/rampi/ TEOREMA
DettagliLa teoria dell informazione
La teoria dell informazione Perché la teoria dell informazione è importante per la linguistica computazionale 2005 Isabella Chiari 1 Informatica Informazione+automatica = informatica Trattamento automatico
Dettagli01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I
01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore
DettagliPagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI
Pagine di Algebra lineare di premessa al testo Pagine di Geometria di Sara Dragotti Parte terza: SISTEMI LINEARI 1. Definizioni Dato un campo K ed m 1 polinomi su K in n indeterminate di grado non superiore
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliLaboratorio di Programmazione Laurea in Ingegneria Civile e Ambientale
Dipartimento di Ingegneria dell Informazione Università degli Studi di Parma Laboratorio di Programmazione Laurea in Ingegneria Civile e Ambientale Algebra di Boole Stefano Cagnoni Algebra di Boole L algebra
DettagliConversione Analogico/Digitale
Conversione Analogico/Digitale 1 Fondamenti di Segnali e Trasmissione Conversione analogico/digitale (A/D) Per rappresentare numericamente un segnale continuo nel tempo e nelle ampiezze è necessario: Campionare
DettagliFigura 1 Trasformazione proibita dal Secondo Principio
ENUNCIATO DEL SECONDO PRINCIPIO DELLA TERMODINAMICA Si dice sorgente di calore o serbatoio di calore alla temperatura θ un corpo che si trovi uniformemente alla temperatura θ e sia in condizioni di scambiare
DettagliLEZIONE Equazioni matriciali. Negli Esempi e si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = R m,n, B = (b i,h ) 1 i m
LEZIONE 4 41 Equazioni matriciali Negli Esempi 336 e 337 si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = B 2,, AX p = B p aventi la stessa matrice incompleta A Tale tipo di problema si presenta
Dettagli1) Codici ciclici. 2) Esempi di codici ciclici. 3) Algoritmi di codifica e decodifica. 4) Circuiti di codifica
Argomenti della Lezione ) Codici ciclici 2) Esempi di codici ciclici 3) Algoritmi di codifica e decodifica 4) Circuiti di codifica Codici ciclici Un codice lineare a blocchi (n,k) è ciclico se e solo se
Dettagli9. Sistemi di Modulazione Numerica in banda traslata. Modulo TLC:TRASMISSIONI Modulazione numerica in banda traslata
1 9. Sistemi di Modulazione Numerica in banda traslata Modulazione QAM (analogica) 2 Modulazione QAM (Quadrature Amplitude Modulation; modulazione di ampiezza con portanti in quadratura) è un tipo di modulazione
DettagliSISTEMI LINEARI. x y + 2t = 0 2x + y + z t = 0 x z t = 0 ; S 3 : ; S 5x 2y z = 1 4x 7y = 3
SISTEMI LINEARI. Esercizi Esercizio. Verificare se (,, ) è soluzione del sistema x y + z = x + y z = 3. Trovare poi tutte le soluzioni del sistema. Esercizio. Scrivere un sistema lineare di 3 equazioni
Dettagli1 Alcuni risultati sulle variabili Gaussiane multivariate
Il modello lineare-gaussiano e il filtro di Kalman Prof. P.Dai Pra 1 Alcuni risultati sulle variabili Gaussiane multivariate In questo paragrafo verranno enunciate e dimostrate alcune proprietà del valor
DettagliLEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati.
LEZIONE 2 2 Sistemi di equazioni lineari Definizione 2 Un equazione lineare nelle n incognite x, x 2,, x n a coefficienti reali, è un equazione della forma (2 a x + a 2 x 2 + + a n x n = b, ove a j, b
DettagliVariabili casuali multidimensionali
Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità.
DettagliRETI DI TELECOMUNICAZIONE
RETI DI TELECOMUNICAZIONE CATENE DI MARKOV TEMPO CONTINUE Definizioni Sia dato un processo stocastico x(t) che può assumere valori discreti appartenenti ad un insieme se accade che il processo è una catena
DettagliUlteriori conoscenze di informatica Elementi di statistica Esercitazione3
Ulteriori conoscenze di informatica Elementi di statistica Esercitazione3 Sui PC a disposizione sono istallati diversi sistemi operativi. All accensione scegliere Windows. Immettere Nome utente b## (##
DettagliGrafi e Funzioni di Costo ESERCIZI
Grafi e Funzioni di Costo ESERCIZI Esercizio1 Si determini la matrice di incidenza archi-percorsi ed i costi di percorso per la rete di trasporto rappresentata in figura. 1 4 2 3 5 Ramo Costo Ramo Costo
DettagliLezioni di Informarica. Prof. Giovanni Occhipinti
Lezioni di Informarica Prof. Giovanni Occhipinti 23 settembre 2010 2 Indice 1 La codifica delle Informazioni 5 1.1 Il sistema binario........................... 5 1.1.1 Conversione da binario a decimale.............
DettagliCANALE STAZIONARIO CANALE TEMPO INVARIANTE
CANALE STAZIONARIO Si parla di un Canale Stazionario quando i fenomeni che avvengono possono essere modellati da processi casuali e le proprietà statistiche di tali processi sono indipendenti dal tempo.
Dettagli15 Informazione e Predizione
(FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo
Dettagli1 Entropia: Riepilogo
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,
DettagliESPONENZIALI E LOGARITMI. chiameremo logaritmica (e si legge il logaritmo in base a di c è uguale a b ).
ESPONENZIALI E LOGARITMI Data una espressione del tipo a b = c, che chiameremo notazione esponenziale (e dove a>0), stabiliamo di scriverla anche in un modo diverso: log a c = b che chiameremo logaritmica
DettagliLezione 6 Richiami di Geometria Analitica
1 Piano cartesiano Lezione 6 Richiami di Geometria Analitica Consideriamo nel piano due rette perpendicolari che si intersecano in un punto O Consideriamo ciascuna di queste rette come retta orientata
DettagliCorso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE
Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati e aleatori Architettura
DettagliEsercizio. Una moneta viene lanciata 1000 volte. Su 1000 lanci, per 600 volte esce croce. Quale è la ridondanza presente nella moneta?
Una sorgente di informazione può produrre 8 diversi simboli con probabilità diverse, e presenta una entropia effettiva di 2.4 bit/simbolo. Quale è il numero medio di byte necessari per contenere un messaggio
DettagliCorso di Matematica per la Chimica
Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Pivoting e stabilità Se la matrice A non appartiene a nessuna delle categorie precedenti può accadere che al k esimo passo risulti a (k) k,k = 0, e quindi il
DettagliMISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE
MISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE La distanza focale f di una lente convergente sottile è data dalla formula: da cui 1 f = 1 p + 1 q f = pq p + q dove p e q sono, rispettivamente, le
DettagliMetodo di Gauss-Jordan 1
Metodo di Gauss-Jordan 1 Nota Bene: Questo materiale non debe essere considerato come sostituto delle lezioni. Ārgomenti svolti: Riduzione per righe e matrici equivalenti per righe. Forma echelon e sistemi
Dettaglix 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 =
56 IL METODO DEL SIMPLESSO 7.4 IL METODO DEL SIMPLESSO In questo paragrafo sono riportati alcuni esercizi risolti sul metodo del simplesso. Alcuni sono risolti utilizzando la procedura di pivot per determinare,
DettagliDensità di probabilità del prodotto di due variabili casuali distribuite uniformemente
Firenze - Dip. di Fisica 2 agosto 2008 Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente In questa dispensa, che presentiamo a semplice titolo di esercizio e applicazione
DettagliScheda n.3: densità gaussiana e Beta
Scheda n.3: densità gaussiana e Beta October 10, 2008 1 Definizioni generali Chiamiamo densità di probabilità (pdf ) ogni funzione integrabile f (x) definita per x R tale che i) f (x) 0 per ogni x R ii)
DettagliModuli combinatori Barbara Masucci
Architettura degli Elaboratori Moduli combinatori Barbara Masucci Punto della situazione Ø Abbiamo studiato le reti logiche e la loro minimizzazione Ø Obiettivo di oggi: studio dei moduli combinatori di
Dettagli2x 5y +4z = 3 x 2y + z =5 x 4y +6z = A =
Esercizio 1. Risolvere il sistema lineare 2x 5y +4z = x 2y + z =5 x 4y +6z =10 (1) Soluz. La matrice dei coefficienti è 1 4 6, calcoliamone il rango. Il determinante di A è (applico la regola di Sarrus):
DettagliDistribuzioni di due variabili aleatorie
Statistica e analisi dei dati Data: 6 Maggio 206 Distribuzioni di due variabili aleatorie Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori Distribuzioni congiunte e marginali Consideriamo due variabili
DettagliCorso di Matematica per la Chimica
Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Pivoting e stabilità Se la matrice A non appartiene a nessuna delle categorie precedenti può accadere che al k esimo passo risulti a (k) k,k = 0, e quindi il
DettagliLEZIONE 1 C =
LEZIONE 1 11 Matrici a coefficienti in R Definizione 111 Siano m, n Z positivi Una matrice m n a coefficienti in R è un insieme di mn numeri reali disposti su m righe ed n colonne circondata da parentesi
DettagliCodifica di sorgente. esempio di sorgente con memoria
Codifica di sorgente esercitazione su sorgenti markoviane 1 esempio di sorgente con memoria Esempio di sorgente con memoria markoviana a due stati NB: per la simmetria del sistema, i simboli sono equiprobabili
DettagliMATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE
MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI Anna TORRE Dipartimento di Matematica, Università di Pavia, Via Ferrata 1, 27100, Pavia, Italy. E-mail: anna.torre@unipv.it 1 SOLUZIONI:
DettagliUNIVERSITA` di ROMA TOR VERGATA
UNIVERSITA` di ROMA TOR VERGATA Corso di PS2-Probabilità 2 P.Baldi appello, 7 giugno 200 Corso di Laurea in Matematica Esercizio Siano X, Y v.a. indipendenti di legge Ŵ(2, λ). Calcolare densità e la media
DettagliIl teorema di Lagrange e la formula di Taylor
Il teorema di Lagrange e la formula di Taylor Il teorema del valor medio di Lagrange, valido per funzioni reali di una variabile reale, si estende alle funzioni reali di più variabili. Come si vedrà, questo
DettagliSintesi Sequenziale Sincrona Sintesi Comportamentale di reti Sequenziali Sincrone
Sintesi Sequenziale Sincrona Sintesi Comportamentale di reti Sequenziali Sincrone Il problema dell assegnamento degli stati versione del 9/1/03 Sintesi: Assegnamento degli stati La riduzione del numero
DettagliRisoluzione di sistemi lineari
Risoluzione di sistemi lineari Teorema (Rouché-Capelli) Dato il sistema di m equazioni in n incognite Ax = b, con A M at(m, n) b R n x R n [A b] si ha che: matrice dei coefficienti, vettore dei termini
Dettagli0.1. MATRICI SIMILI 1
0.1. MATRICI SIMILI 1 0.1 Matrici simili Definizione 0.1.1. Due matrici A, B di ordine n si dicono simili se esiste una matrice invertibile P con la proprietà che P 1 AP = B. Con questa terminologia dunque
DettagliRappresentazioni numeriche
Rappresentazioni numeriche Un numero è dotato di un valore una rappresentazione La rappresentazione di un numero è il sistema che utilizziamo per indicarne il valore. Normalmente è una sequenza (stringa)
DettagliFondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )
Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere A quanto corrisponde su base decimale un guadagno di 3 db? (Risp: = 259 25 2 A quanti watt corrisponde una potenza di - 25 db m? (Risp: 3,25-6
DettagliLOGICA SEQUENZIALE. Un blocco di logica puramente combinatoria è un. blocco con N variabili di ingresso e M variabili di uscita
LOGICA SEQUENZIALE Logica combinatoria Un blocco di logica puramente combinatoria è un blocco con N variabili di ingresso e M variabili di uscita che sono funzione (booleana) degli ingressi in un certo
DettagliCorso di Analisi Matematica Funzioni di una variabile
Corso di Analisi Matematica Funzioni di una variabile Laurea in Informatica e Comunicazione Digitale A.A. 2013/2014 Università di Bari ICD (Bari) Analisi Matematica 1 / 24 1 Generalità 2 Funzioni reali
Dettagli