Comunicazioni Elettriche II
|
|
- Anna Pandolfi
- 4 anni fa
- Visualizzazioni
Transcript
1 Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A
2 Teoria dell informazione Esercitazione 3
3 Teoria dell informazione Sorgente Codificatore di sorgente Codificatore di canale Canale Destinazione La minima velocità di trasmissione ottenibile nella compressione dati: Entropia H [unità informative, es. bits] La massima velocità di trasmissione ottenibile nella trasmissione dati: Capacità di Canale C [unità informative / unità di tempo, es. bits/sec]
4 Entropia - Definizione Una sorgente dati può essere rappresentata da una variabile aleatoria X, avente dominio di definizione Ω X X:{x Ω X } p X (X) è la Probability Mass Function (PMF) di X.
5 Entropia Significato(i) L entropia ha vari significati: - L informazione media ottenibile osservando le realizzazioni di una v.a. - L incertezza media sulla v.a. prima di osservarne le realizzazioni. - L incertezza media rimossa dalla v.a. dopo l osservazione delle sue realizzazioni - Il numero medio di unità informative (bit) necessario per rappresentare opportunamente la sorgente dati di origine
6 Entropia di un sorgente discreta
7 Entropia di una sorgente binaria X è una sorgente tale che Ω X ={0, 1} e: p X 1 p X 0 H ( X) = qlog 2 ( q) ( 1 q)log 2 ( 1 q) 1 ( ) = q ( ) =1 q 1/2
8 Entropia e codifica di una sorgente binaria equiprobabile Se le realizzazioni di X sono equiprobabili (q = 1/2), H(X) è massima e pari ad 1 bit, ovvero si ha bisogno, in media, di un bit per codificare ogni realizzazione della sorgente. In questo caso, le possibili realizzazioni sono due (la sorgente è binaria), quindi si utilizza esattamente 1 bit per ogni realizzazione.
9 Entropia e codifica di una sorgente binaria non equiprobabile Valutare il numero medio di bit necessario per codificare una sorgente binaria non equiprobabile, caratterizzata da q = 0.1. ü Definizione di entropia: H(X) = 0.1*log *log = 0.47 bit ü Si ha bisogno, in media, di 0.47 bit per codificare ogni realizzazione della sorgente. Implementare un possibile codice binario che rappresenti in maniera efficiente tale sorgente: ü Un codice, in cui le realizzazioni vengono codificate a coppie. Ad esempio: Realizzazioni Codice Associato non ottimizzato n bit = [p(0,0)*1+p(0,1)*2+p(1,0)*3+p(1,1)*3] / 2 = = [0.9* *0.1* *0.9* *0.1*3]/2 = bit > 0.47 bit
10 Entropia e codifica di una sorgente non binaria, non equiprobabile X è una sorgente tale che Ω X ={a 1, a 2, a 3, a 4 } e: Valutare l entropia, e un possibile codice binario di rappresentazione. ü Un possibile codice che rappresenta le realizzazioni di X con un numero medio di bit pari a 1.75: Realizzazioni Codice Associato a 1 0 a 2 10 a a n bit = [p(a 1 )*1+p(a 2 )*2+p(a 3 )*3+p(a 4 )*3] / 1 = 1.75 bits
11 Entropia congiunta e entropia condizionata Legame tra entropia congiunta e entropia condizionata! H(X,Y )= H(X)+ H(Y / X)= H(Y )+ H(X /Y ) Nota:! H(Y / X) H(X /Y )! H(X) H(X /Y )= H(Y ) H(Y / X)
12 Esempio! (X,Y ) p(x, y) Calcola: H(X), H(Y) H(X Y), H(Y X) H(X,Y) H(Y) H(Y X) I(X,Y) Sia X\Y /3 1/ /3 p(x=0) = 1/3 + 1/3 = 2/3 p(x=1) = 0 + 1/3 = 1/3 p(y=0) = 1/3 + 0 = 1/3 p(y=1) = 1/3 + 1/3 = 2/3 H(Y X) H(X Y)
13 Entropia relativa Entropia relativa detta anche distanza di Kullback-Leibler tra due PMF p X (x) e q X (x) è definita come segue D(p q) = x Ω X p(x)log p(x) q(x) 0log 0 0 = 0; 0log 0 q = 0; plog p 0 = Quindi se esiste un simbolo per il quale p(x)>0 e q(x)=0 si ha D(p q) = Si dimostra che l entropia relativa è sempre positiva e pari a 0 se e solo se p=q Tuttavia non è simmetrica
14 Esempio Considera le distribuzioni in tabella per la sorgente ternaria X. Calcola: H(p), H(q) D(p q), D(q p) Symbol p(x) q(x) a 1/2 1/3 b 1/4 1/3 c 1/4 1/3 Mostra un esempio di due distribuzioni p e q per le quali D(p q) = D(q p) Symbol p(x) q(x) a z 1-z b 1-z z
15 Esercizio MATLAB 1: Entropia di una sorgente binaria Scrivere uno script MATLAB che produca un grafico rappresentante l entropia H(X) di una sorgente binaria X, al variare della PMF della sorgente stessa.
16 Esercizio MATLAB 2: Entropia di una sorgente discreta generica Scrivere uno script MATLAB che produca il calcolo dell entropia H(X) di una sorgente discreta X. Lo script deve prevedere la possibilità di scelta, da parte di un generico utente: della cardinalità della sorgente (numero di realizzazioni) della PMF della sorgente Inoltre, lo script deve prevedere il possibile errore dell utente nell immissione dei dati (ad es., sulla somma totale della probabilità), e reagire in modo opportuno. Nota: utilizzare il comando help di MATLAB per ottenere informazioni sulle funzioni input( ) e fprintf( ).
17 Esercizio MATLAB 3: Entropia relativa Produrre uno script che effettui il calcolo dell entropia relativa D(p q) tra due distribuzioni p(x) e q(x) di una sorgente binaria X. Considerando q(x) : Pr(x q =0)=[0:.1:1], graficare, nella stessa figura, l andamento di D(p q) al variare di Pr(x q = 0), nei seguenti casi: 1) p(x) uniforme 2) p(x) non uniforme e tale che Pr(x p =0) = 1/3; 3) p(x) non uniforme e tale che Pr(x p =0) = 2/3; Per i tre casi del punto precedente, mostrare nella stessa figura, ma in un numero di subplot opportuno, le curve ottenute calcolando D(p q) e D(q p), mostrando la proprietà di antisimmetria dell entropia relativa (in generale D(p q) D(q p).
Comunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 6 Teorema della codifica di sorgente Si consideri
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliSicurezza di un Cifrario (C. Shannon)
La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto
Dettagli10 Proprietà di Equipartizione Asintotica
FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 10 Esercizio 1 Sia data una trasmissione di
DettagliNota: Eventi meno probabili danno maggiore informazione
Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =
Dettagli8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente p. 1/39 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2006-07 Alberto Perotti Esperimento casuale Esperimento suscettibile di più risultati
DettagliFondamenti dell Informatica
Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina
DettagliElementi di teoria dell informazione e della trasmissione
VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Codifica di canale Il codificatore di canale Bits della sorgente Codificatore di canale
DettagliLA CODIFICA. CANALE IDEALE E REALE
LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:
DettagliFondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )
Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere A quanto corrisponde su base decimale un guadagno di 3 db? (Risp: = 259 25 2 A quanti watt corrisponde una potenza di - 25 db m? (Risp: 3,25-6
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliVariabili aleatorie: parte 1. 1 Definizione di variabile aleatoria e misurabilitá
Statistica e analisi dei dati Data: 11 Aprile 2016 Variabili aleatorie: parte 1 Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori 1 Definizione di variabile aleatoria e misurabilitá Informalmente,
DettagliSoluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni
Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame
DettagliCodifica sorgente e canale
Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:
DettagliEsercizi 6 - Variabili aleatorie vettoriali, distribuzioni congiunte
Esercizi - Variabili aleatorie vettoriali, distribuzioni congiunte Esercizio. X e Y sono v.a. sullo stesso spazio di probabilità (Ω, E, P). X segue la distribuzione geometrica modificata di parametro p
DettagliDISTRIBUZIONI DI PROBABILITA (parte 2) 1 / 27
DISTRIBUZIONI DI PROBABILITA (parte 2) 1 / 27 Funzione di ripartizione per variabili casuali discrete 2 / 27 Data una variabile casuale discreta possiamo calcolare, analogamente al caso continuo, la probabilità
DettagliInformatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.
Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x
Dettagli10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore
10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore
DettagliQuale polinomio locatore ottiene il decodificatore? Quale parola propone in uscita? Commentare la scelta del decodificatore.
TIT - Esame del 21/1/2016 Una parola di BCH primitivo (15,11) con j 0 =1, è ricevuta con il bit c 4 errato Qual è il potere correttore del codice? Scrivere la Key Equation Determinare il polinomio locatore
DettagliCalcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012
Fisciano, 10/1/2012 Esercizio 1 Un esperimento consiste nel generare a caso un vettore di interi (x 1, x 2, x 3, x 4 ), dove x i {1, 2, 3, 4, 5, 6} i. (i) Si individui lo spazio campionario, determinandone
DettagliEntropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...
Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata
Dettagli01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I
01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore
DettagliINFORMAZIONE E COMPLESSITA
INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze
DettagliTeoria della probabilità Variabili casuali
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità Variabili casuali A.A. 2008-09 Alberto Perotti DELEN-DAUIN Variabile casuale Una variabile
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Esercitazione 16 Segnali d immagine I Esercizio: Rapporto d aspetto Si calcoli il rapporto
DettagliInformazione, Entropia e Probabilità
Informazione, Entropia e Probabilità Alessandro Lenci Università di Pisa, Dipartimento di Linguistica Via Santa Maria, 36, 56100 Pisa, Italy alessandro.lenci@ilc.cnr.it Linguaggio e comunicazione - LO042
DettagliVariabili casuali. - di Massimo Cristallo -
Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 16 e 27 maggio 2013 - di Massimo Cristallo - Variabili casuali
DettagliUnità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.
Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento
DettagliTeoria dell Informazione
Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università
DettagliEsercizi su variabili aleatorie discrete
Esercizi su variabili aleatorie discrete Esercizio 1. Data la variabile aleatoria discreta X, caratterizzata dalla seguente rappresentazione nello spazio degli stati: 1 0,25 X = { 0 0,50 1 0,25 calcolare
DettagliVariabili casuali multidimensionali
Probabilità e Statistica Esercitazioni a.a. 2006/2007 C.d.L.: Ingegneria per l Ambiente ed il Territorio, Ingegneria Civile, Ingegneria Gestionale, Ingegneria dell Informazione C.d.L.S.: Ingegneria Civile
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliCodifica binaria: - numeri naturali -
Codifica binaria: - numeri naturali - Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin Tipologie di codici Per la rappresentazione di: caratteri alfabetici
DettagliCorso di Calcolatori Elettronici I
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica Roberto Canonico Università degli Studi di Napoli Federico II A.A. 2016-2017 Roberto Canonico Corso di Calcolatori Elettronici
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliDipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni
Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni Esercitazioni del corso di Telecomunicazioni Corso di laurea in Ingegneria Gestionale Anno Accademico 2013-2014 Ing. Alfonso
DettagliProva di esame di Teoria dei Segnali
10 aprile 2018 Prova di esame di Teoria dei Segnali Parte quantitativa Candidato: Esercizio A Un canale binario simmetrico è caratterizzato { da una probabilità di errore p (x1 ) = 0.1 P e = 0.2 e probabilità
DettagliCapitolo 5 La trasmissione dell informazione
Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione
DettagliInformazione e sua rappresentazione: codifica. Il concetto di informazione
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliVariabili aleatorie parte 2. 1 Definizione di funzione di ripartizione o funzione cumulativa (CDF)
Statistica e analisi dei dati Data: 11 aprile 2016 Variabili aleatorie parte 2 Docente: Prof. Giuseppe Boccignone Scriba: Alessandra Birlini 1 Definizione di funzione di ripartizione o funzione cumulativa
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliFondamenti di Informatica. Cosa è l informazione. A cosa serve. Prof.V.L.Plantamura Informatica e Comunicazione Digitale a.a.
Fondaenti di Inforatica Prof.V.L.Plantaura Inforatica e Counicazione Digitale a.a. 2005-2006 Cosa è l inforazione L inforazione è qualcosa che si possiede e si può dare ad un altro senza perderne il possesso.
DettagliCapitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente
Capitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente 1 Sorgenti d Informazione- Generalità Per valutare le prestazioni di un Sistema di TLC, è necessario descrivere
DettagliCorso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A))
STIIA Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A STIIA Classe: Matricole Pari Docente: Prof. Luisa Gargano Testo principale: T. Cover, J. Thomas, Elements of Information Theory,
DettagliTeoria delle Decisioni Bayesiana
Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 14 gennaio 2009 Sommario Introduzione Teoria delle decisioni Bayesiana - nel continuo Classificazione
DettagliL Aritmetica del Calcolatore
L Aritmetica del Calcolatore Luca Gemignani luca.gemignani@unipi.it 23 febbraio 2018 Indice Lezione 1: Rappresentazione in Base e Numeri di Macchina. 1 Lezione 2: Aritmetica di Macchina. 3 Lezione 1: Rappresentazione
DettagliVARIABILI CASUALI. Fino ad ora abbiamo definito:
VARIABILI CASUALI Fino ad ora abbiamo definito: Lo SPAZIO CAMPIONARIO Ω : Come totalità dei possibili risultati di un esperimento Gli EVENTI : Come sottoinsiemi dello spazio campionario La FUNZIONE DI
DettagliTeoria dell Informazione
Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro
DettagliElementi di informatica
Elementi di informatica problema della rappresentazione dei valori delle informazioni la rappresentazione deve essere effettuata attraverso un insieme finito di simboli disponibili il numero di simboli
Dettagli3. TEORIA DELL INFORMAZIONE
3. TEORIA DELL INFORMAZIONE INTRODUZIONE MISURA DI INFORMAZIONE SORGENTE DISCRETA SENZA MEMORIA ENTROPIA DI UNA SORGENTE NUMERICA CODIFICA DI SORGENTE 1 TEOREMA DI SHANNON CODICI UNIVOCAMENTE DECIFRABILI
DettagliArchitettura degli Elaboratori
Architettura degli Elaboratori Rappresentazione dell Informazione Barbara Masucci Cosa studiamo oggi Ø Un moderno elaboratore è un sistema elettronico digitale programmabile Ø Il suo comportamento è flessibile
DettagliL informazione numerica
L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come
Dettagli(h + 1)y + hz = 1. 1 [5 punti] Determinare le eventuali soluzioni del seguente sistema di congruenze: 2x 5 mod 3 3x 2 mod 5.
Dipartimento di Matematica e Informatica Anno Accademico 07-08 Corso di Laurea in Informatica (L-) Prova scritta di Matematica Discreta ( CFU) 8 Luglio 08 [5 punti] Determinare le eventuali soluzioni del
DettagliLa teoria dell informazione
Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica
DettagliFondamenti di Informatica. Cosa è l informazione. Informazione. Informatica e Comunicazione Digitale
Inforatica e Counicazione Digitale Fondaenti di Inforatica rof.ssa E. Gentile a.a. 20-202 Cosa è l inforazione L inforazione è qualcosa che si possiede e si può dare ad un altro senza perderne il possesso.
DettagliComplementi di Matematica e Calcolo Numerico A.A Laboratorio 4 - Polinomi e Interpolazione polinomiale
Complementi di Matematica e Calcolo Numerico A.A. 2015-2016 Laboratorio 4 - Polinomi e Interpolazione polinomiale Polinomi e vettori: Consideriamo particolari funzioni di una variabile reale che siano
DettagliCalcolo delle Probabilità e Statistica Matematica previsioni 2003/04
Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 LU 1/3 Esempi di vita reale : calcolo delle probabilità, statistica descrittiva e statistica inferenziale. Lancio dado/moneta: definizione
DettagliIntroduzione al modello Uniforme
Teoria dei Fenomeni Aleatori 1 AA 01/13 Introduzione al modello Uniforme Esempio: conversione Analogico/Digitale Errore di quantizzazione Ampiezza Continua Discreta x t x q t Tempo Discreto Continuo 0
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Segnale vocale e segnale telefonico Segnale vocale I segnali vocali sono costituiti
DettagliCrittanalisi dei cifrari simmetrici. Crittografia classica
Crittanalisi dei cifrari simmetrici Sostituzione monoalfabetica di caratteri Sostituzione polialfabetica di caratteri One-time pad Cifrario perfetto Cifrario composto robustezza sicurezza perfetta sicurezza
DettagliLezione 1, 2 e 3 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 08 09 Lezione, e 3 Ugo Vaccaro Per i nostri scopi, una sorgente di informazione è una sequenza di variabili casuali X, X,..., X i,... le quali assumono valori
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliTeoria dell informazione
Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell
DettagliUniversità degli Studi di Ferrara Corso di Laurea in Chimica - A.A
Università degli Studi di Ferrara Corso di Laurea in Chimica - A.A. 2018-2019 Programmazione Lezione 12A Esercizi in MATLAB Docente: Lorenzo Caruso lorenzo.caruso@unife.it Nelle lezioni precedenti Matlab:
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliMASB AA10/11 21/01/11 test #1 1
MASB 0/06/11 AA010011test #1. Esercizio 1. Illustrare lo schema generale di un apparecchiatura per l acquisizione di segnali spontanei, descrivendo brevemente i diversi componenti. Fornire una descrizione
DettagliEsercizi sulla rappresentazione dell informazione
Esercizi sulla rappresentazione dell informazione Esercizio 1A Trovare la rappresentazione binaria di 56,83 in virgola fissa quattro bit di precisione. Soluzione 1A: La rappresentazione binaria di 56,83
DettagliFondamenti di Informatica. Cosa è l informazione. A cosa serve. Prof. V.L. Plantamura Informatica e Comunicazione Digitale a.a.
Fondaenti di Inforatica Prof. V.L. Plantaura Inforatica e Counicazione Digitale a.a. 2006-2007 Cosa è l inforazione L inforazione è qualcosa che si possiede e si può dare ad un altro senza perderne il
DettagliLa codifica binaria: concetti fondamentali
La codifica binaria: concetti fondamentali Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin ... Algoritmi, dati e risultati sono informazioni Informatica
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
Dettagliun elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;
TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale
Dettagli2. Introduzione alla probabilità
. Introduzione alla probabilità Carla Seatzu, 8 Marzo 008 Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari: è l insieme Ω di tutti i possibili esiti
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliComplessità di Kolmogorov
(FX) Teoria dell Informazione e della Trasmissione Complessità di Kolmogorov Docente: Nicolò Cesa-Bianchi versione maggio 206 La teoria dell informazione secondo Shannon, introdotta nel 948, si basa sulla
Dettagliassuma valori in un determinato intervallo è data dall integrale della sua densità ( = )=
VARIABILI ALEATORIE CONTINUE Esistono parecchi fenomeni reali per la cui descrizione le variabili aleatorie discrete non sono adatte. Per esempio è necessaria una variabile aleatoria continua ovvero una
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
DettagliIL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA
Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale
DettagliIntegrazione numerica
Integrazione numerica Lucia Gastaldi DICATAM - Sez. di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Formule di quadratura semplici e composite Formule di quadratura Grado di precisione Formule di
DettagliTrasmissione dell informazione
Università degli Studi di Roma Tor Vergata Facoltà di Ingegneria Corso di Ingegneria Medica Trasmissione dell informazione La comunicazione Si tratta di un processo attraverso il quale due o più entità
DettagliGenerazione di Numeri Casuali- Parte 2
Esercitazione con generatori di numeri casuali Seconda parte Sommario Trasformazioni di Variabili Aleatorie Trasformazione non lineare: numeri casuali di tipo Lognormale Trasformazioni affini Numeri casuali
Dettagli