Sorgenti discrete e informazione
|
|
- Leona Michela Greco
- 7 anni fa
- Visualizzazioni
Transcript
1 Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un destinatario In particolare ci riferiamo a una sorgente di messaggi discreti S C D
2 Sorgenti discrete e informazione Nel modello preso in considerazione da Shannon una sorgente discreta è in grado di emettere dei simboli appartenenti ad un insieme A detto alfabeto della sorgente Un messaggio m emesso dalla sorgente è una concatenazione di simboli dell'alfabeto S A s,s 2.. s N m = s k s k2... s km m = M è la lunghezza del messaggio A =N è la cardinalità dell'alfabeto
3 Sorgenti discrete e informazione L'informazione associata ai simboli emessi dalla sorgente viene definita facendo riferimento alla diminuzione dell'incertezza in seguito alla ricezione di un simbolo dell'alfabeto o in altri termini alla sorpresa che provoca la ricezione di un simbolo della sorgente S A s,s 2.. s N m = s k s k2... s km
4 Sorgenti discrete e informazione E' necessario quindi fare riferimento alle caratteristiche statistiche della sorgente Più un simbolo viene emesso raramente e maggiore è la sorpresa che provoca nel ricevitore e maggiore è la quantità di informazione che trasporta Al contrario un simbolo emesso frequentemente porta poca informazione (non è sorprendente aspettarsi l'emissione di questo simbolo)
5 Sorgenti discrete e informazione Una sorgente che emette un solo simbolo, non fornisce alcuna informazione se una moneta ha una faccia truccata (più pesante) ci si può aspettare dal lancio che questa faccia esca più frequentemente (poca informazione) e di conseguenza nel caso in cui esca l'altra ne saremmo maggiormente sopresi (più informazione) una vincita al super enalotto ci sorprenderebbe parecchio (oltre che renderci felici!) visto che si tratta di un evento raro (relativamente ad un giocatore)
6 Sorgenti discrete e informazione E' naturale allora misurare la sorpresa e quindi l'informazione riferendosi alla probabilità di emissione di un simbolo p(s k ) = p k = probabilità di emissione di s k Nel modello di Shannon la sorgente è rappresentata da un'urna contenente delle palline corrispondenti ai simboli dell'alfabeto La composizione dell'urna è determinata dalle probabilità di emissione dei simboli dell'alfabeto
7 Sorgenti discrete e informazione Se un simbolo s k ha probabilità p k di essere emesso il numero delle palline corrispondenti è pari a p k N p dove N p è il numero totale di palline dell'urna L'emissione di un simbolo corrisponde all'estrazione di una pallina dall'urna Le emissioni dei simboli sono indipendenti l'una dall'altra Dopo ogni estrazione la pallina viene rimessa nell'urna
8 Sorgenti discrete e informazione Questo modello consente di assimilare ad una sorgente discreta, non solo apparati che trasmettono informazioni nello spazio, ma anche testi (visti come successione di simboli), immagini ecc. I risultati della teoria dell'informazione sono quindi applicabili sia a problemi di trasmissione (aumento della velocità di trasmissione) che a problemi di memorizzazione delle informazioni (compressione dei dati)
9 Sorgenti discrete e informazione L'ipotesi di considerare i simboli emessi in modo indipendente l'uno dall'altro non è molto aderente alla realtà. es. nella lingua italiana dopo la lettera q si incontra quasi sempre la lettera u (tranne che nella parola soqquadro) in un brano di musica di genere ad es. rock'n roll la sequenza degli accordi segue degli schemi abbastanza prevedibili (es. do - fa sol) La trattazione matematica risulta semplificata
10 Definizione quantitativa di informazione Secondo Shannon la definizione di quantità di informazione deve rispettare i seguenti vincoli (assiomi) L'informazione I(s k ) associata ad un simbolo s k sarà una funzione di p k probabilità di emissione di s k Minore il valore di p k e maggiore sarà I(s k ) e viceversa L'informazione associata ad un messaggio m deve essere la somma delle informazioni di ciascun simbolo che lo compone
11 Definizione quantitativa di informazione Considerando che la probabilità di un messaggio m formato da M simboli è pari al prodotto delle probabilità di ogni simbolo (per l'indipendenza delle emissioni) I s k =f p k I m=f p =f m p k p =f km I m=i s k I s km =f p f k quindi f =f p km p k p km p f k p k p km p km
12 Definizione quantitativa di informazione Una funzione che trasformi un prodotto in una somma è il logaritmo I s k =f p k =log b p k L'unità di misura è il bit e per individuare la base b del logaritmo si deve definire la situazione in cui un simbolo ha informazione pari ad bit.
13 Definizione quantitativa di informazione La situazione di riferimento è quella della sorgente più semplice possibile (in pratica il lancio di una moneta): A={0,} alfabeto di due simboli p 0 = p = 0.5 I 0=I =log b b =2 b=2 0.5 =log b 2=
14 Definizione quantitativa di informazione Es. una moneta truccata ha: p T = 0.6 e p C = 0.4 I T =log 2 =0.737 bit 0.6 I C =log =.322bit come era da aspettarsi il simbolo più probabile (T) porta meno informazione
15 Entropia di una sorgente Per caratterizzare complessivamente la sorgente possiamo considerare il valore medio dell'informazione portata da un simbolo emesso effettuando la media ponderata delle informazioni (la somma delle probabiltà è ) N H = k= N p k I s k = k= p k log 2 p k bit/simbolo Tale grandezza viene chiamata Entropia della sorgente
16 Entropia di una sorgente Es. nel caso della moneta non truccata: 2 H= k= p k I s k = = bit/simbolo Per la moneta truccata: 2 H= k= p k I s k = = 0,970 bit/simbolo
17 Entropia di una sorgente Il significato profondo di questa grandezza è che se misuriamo la quantità media di informazione di un messaggio di M caratteri emesso dalla sorgente è pari: I m=m H bit es. un messaggio di 000 simboli di una sorgente con entropia pari a bit/simb ha associata in media un'informazione pari a 970 bit
18 Entropia di una sorgente Questo vuol dire che è possibile trovare una codifica univocamente decifrabile dei simboli della sorgente tale che un messaggio di M simboli sia rappresentabile con H M binit (cifre binarie) es. nel caso della moneta truccata, si può trovare una codifica in base alla quale 000 lanci di moneta siano rappresentabili con 970 cifre binarie anziché le 000 necessarie nella rappresentazione T=0 e C=
19 Entropia di una sorgente Es. Alfabeto={A,B,C,D} p A =0.60 I(A)=-log 2 (0.60)=0.737 bit p B =0.20 p C =0.5 p D =0.05 I(B)=-log 2 (0.20)=0.30 bit I(C)=-log 2 (0.5)=2.737 bit I(D)=-log 2 (0.05)=4,322 bit H= = =.29 bit/simb
20 Entropia di una sorgente Il significato è questo: se codifico la sorgente banalmente (4 simboli=2 binit a simbolo) un messaggio di es. 000 simboli occuperà 2000 binit; esiste una codifica che consente di rappresentare in media un messaggio di 000 simboli con 29 binit anziché 2000 (quasi la metà!) non è conveniente dare lo stesso peso (stessa lunghezza di rappresentazione) ad A che esce il 60% delle volte e a D che esce il 5% delle volte...
21 Entropia di una sorgente... se il messaggio verrà trasmesso si impiegherà poco più della metà del tempo se il messaggio deve essere memorizzato si occuperà poco più della metà della memoria converrà rappresentare con meno binit i simboli più frequenti La codifica cercata è la codifica di Huffman
22 Entropia di una sorgente Una sorgente con N simboli equiprobabili avrà la massima entropia tra le sorgenti di N simboli: N H= k= p k log 2 p k Si definisce ridondanza della sorgente: N = k = N log 2N = = N N log 2N = log 2 N bit/simbolo R = H H MAX
Modello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliLa teoria dell informazione
Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliTeoria dell informazione
Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliLa teoria dell informazione
La teoria dell informazione Perché la teoria dell informazione è importante per la linguistica computazionale 2005 Isabella Chiari 1 Informatica Informazione+automatica = informatica Trattamento automatico
DettagliLA CODIFICA. CANALE IDEALE E REALE
LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:
DettagliCodifica di Huffman e Lempel-Ziv-Welch
e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente la rappresentazione
DettagliCodifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O /
Codifica di Huffman e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente
DettagliElementi di teoria dell informazione e della trasmissione
VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali
DettagliLa Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione?
La Teoria dell Informazione Cosa intendiamo quando usiamo il termine informazione? Ogni termine del linguaggio scientifico deve essere preciso ed univoco. Polisemia vs Monosemia Il termine calore 1. «Renzo
DettagliL informazione numerica
L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come
DettagliEsercizio. Una moneta viene lanciata 1000 volte. Su 1000 lanci, per 600 volte esce croce. Quale è la ridondanza presente nella moneta?
Una sorgente di informazione può produrre 8 diversi simboli con probabilità diverse, e presenta una entropia effettiva di 2.4 bit/simbolo. Quale è il numero medio di byte necessari per contenere un messaggio
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliUnità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.
Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliCalcolo delle Probabilità
Calcolo delle Probabilità Il calcolo delle probabilità studia i modelli matematici delle cosiddette situazioni di incertezza. Molte situazioni concrete sono caratterizzate a priori da incertezza su quello
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore
DettagliFondamenti dell Informatica
Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina
DettagliINFORMAZIONE E COMPLESSITA
INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze
DettagliL informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione
L informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione Informazione e Informatica Informatica e telecomunicazione Cos è l informatica?
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì
DettagliLa Rappresentazione Dell Informazione
La Rappresentazione Dell Informazione Parte III I codici I Codici Un codice è una funzione che associa ad una sequenza di simboli un significato Un codice serve a: Permettere l elaborazione e la memorizzazione
DettagliCodifica di Huffman e Lempel-Ziv-Welch
Codifica di e Lempel-Ziv-Welch 1 ALBERTO BELUSSI ANNO ACCADEMICO 2009/2010 Tipi di compressione Senza perdita (lossless lossless): permettono di ricostruire perfettamente la rappresentazione del dato originale,
DettagliIndice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135
Indice 8 Teoria dell Informazione per sorgenti 123 8.1 Introduzione.................................... 123 8.2 Codifica di sorgente............................... 123 8.2.1 Classificazione tecniche di
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice
DettagliInformazione e Comunicazione
TECNOLOGIE E PROGETTAZIONE ISTITUTO TECNICO SECONDO BIENNIO Rappresentazione dell Informazione GIORGIO PORCU www.thegiorgio.it Sommario Dato e Informazione Tipologie di informazione Comunicazione, Interfaccia,
DettagliIl concetto di informazione
Il concetto di informazione Qualunque informazione è definita tramite tre caratteristiche fondamentali: 1. Valore indica il particolare elemento assunto dall informazione 2. Tipo indica l insieme degli
Dettagli10 Proprietà di Equipartizione Asintotica
FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 6 Teorema della codifica di sorgente Si consideri
DettagliA cura del prof. Gino Tombolini Itis Montani Fermo
TEORIA DELL'IFORMAZIOE Una informazione è un frammento della realtà; noi possiamo conoscere tale realtà attraverso una rappresentazione di essa per mezzo di simboli secondo un codice convenuto, e che giunge
DettagliStatistica Inferenziale
Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Riepilogo lezione 1 Abbiamo visto: Definizioni di statistica, statistica inferenziale, probabilità (interpretazione
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliElaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)
Elaborazione dell informazione INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione di informazione prevede una codifica come: Dato: insieme di simboli rappresentati su un supporto Negli elaboratori:
DettagliCapitolo 5 La trasmissione dell informazione
Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione
DettagliRappresentazione e Codifica dell Informazione
Rappresentazione e Codifica dell Informazione Capitolo 1 Chianese, Moscato, Picariello, Alla scoperta dei fondamenti dell informatica un viaggio nel mondo dei BIT, Liguori editore. ***disclaimer *** Quest
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
DettagliCapitolo 3 Parte 1 La codifica dell informazione. Informatica e Informazione La codifica dell informazione Analogico vs digitale
Capitolo 3 Parte 1 La codifica dell informazione Informatica e Informazione La codifica dell informazione Analogico vs digitale Informazione e Informatica Informatica e telecomunicazione: quale definizione?
DettagliCorso di Calcolatori Elettronici I
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica Roberto Canonico Università degli Studi di Napoli Federico II A.A. 2016-2017 Roberto Canonico Corso di Calcolatori Elettronici
DettagliInformazione, Entropia e Probabilità
Informazione, Entropia e Probabilità Alessandro Lenci Università di Pisa, Dipartimento di Linguistica Via Santa Maria, 36, 56100 Pisa, Italy alessandro.lenci@ilc.cnr.it Linguaggio e comunicazione - LO042
DettagliTeoria dell Informazione
Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro
DettagliTeoria dell Informazione
Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università
Dettagli1.2f: Operazioni Binarie
1.2f: Operazioni Binarie 2 18 ott 2011 Bibliografia Questi lucidi 3 18 ott 2011 Operazioni binarie Per effettuare operazioni è necessario conoscere la definizione del comportamento per ogni coppia di simboli
DettagliCodice binario. Codice. Codifica - numeri naturali. Codifica - numeri naturali. Alfabeto binario: costituito da due simboli
Codice La relazione che associa ad ogni successione ben formata di simboli di un alfabeto il dato corrispondente è detta codice. Un codice mette quindi in relazione le successioni di simboli con il significato
DettagliPag. 1. La Rappresentazione e la Codifica delle informazioni (parte 2) Tipi di dati. Informatica Facoltà di Medicina Veterinaria
1 Università degli studi di Parma Dipartimento di Ingegneria dell Informazione Informatica a.a. 2012/13 Tipi di dati Informatica Facoltà di Medicina Veterinaria La Rappresentazione e la Codifica delle
DettagliSicurezza di un Cifrario (C. Shannon)
La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto
DettagliQuale polinomio locatore ottiene il decodificatore? Quale parola propone in uscita? Commentare la scelta del decodificatore.
TIT - Esame del 21/1/2016 Una parola di BCH primitivo (15,11) con j 0 =1, è ricevuta con il bit c 4 errato Qual è il potere correttore del codice? Scrivere la Key Equation Determinare il polinomio locatore
DettagliRappresentazione dell'informazione
Rappresentazione dell'informazione Corrispondenza tra informazione I e sua rappresentazione P(I), composta da cifre ai di un alfabeto di simboli A I P(i) = {ai}, ai A Esempi di alfabeto: {a, b,..., z}
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliInformatica, Informazione e Telecomunicazioni. La codifica dell informazione. Supporto e informazione. Il concetto di informazione
La codifica dell informazione Fondamenti di Informatica A Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Alfonso Gerevini Informatica, Informazione e Telecomunicazioni l informatica
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita
DettagliInformatica, Informazione e Telecomunicazioni. La codifica dell informazione. Il concetto di informazione. Supporto e informazione
La codifica dell informazione Elementi di Informatica e Programmazione Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Ivan Serina Prof. Alfonso Gerevini Informatica, Informazione
DettagliProbabilità. Fulvio Bisi-Anna Torre
Probabilità Fulvio Bisi-Anna Torre FRATELLI E SORELLE Per la ricorrenza della festa della mamma, la sig.ra Luisa organizza una cena a casa sua, con le sue amiche che hanno almeno una figlia femmina. La
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliInformazione e sua rappresentazione: codifica. Il concetto di informazione
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliP(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =
1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda
DettagliInformatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.
Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x
DettagliPROBABILITÀ. a) 0,04 b) 0,8 c) 0,25 d) 0,64 e) 0,96
QUESITI 1 PROBABILITÀ 1. (Da Medicina e Odontoiatria 2015) La probabilità con cui un paziente deve attendere meno di dieci minuti il proprio turno in un ambulatorio medico è 0,8. Qual è la probabilità
DettagliP(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =
1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda
DettagliAppunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni
Università di Roma Tre Dipartimento di Matematica e Fisica Corso di Laurea in Matematica Appunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni Marco Liverani (liverani@mat.uniroma3.it)
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore
DettagliProva di esame di Trasmissione Numerica
19 Settembre 2013 Prova di esame di Trasmissione Numerica Parte quantitativa Candidato: Esercizio A Un collegamento radio tra antenne omnidirezionali poste a d = 20 KM e con portante f 0 = 27 MHz viene
DettagliCODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione
CODIFICA DI SORGENTE Informazione associata a sorgenti digitali, entropia Codifica di sorgenti senza memoria Codifica di sorgenti con memoria CODIFICA DI SORGENTE Schematizzazione generale sistema di comunicazione
DettagliNotazione posizionale. Codifica binaria. Rappresentazioni medianti basi diverse. Multipli del byte
Codifica binaria Rappresentazione di numeri Notazione di tipo posizionale (come la notazione decimale). Ogni numero è rappresentato da una sequenza di simboli Il valore del numero dipende non solo dalla
DettagliCorso di Fondamenti di Telecomunicazioni
Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Prof. Giovanni Schembra 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati
DettagliRappresentazione dei numeri
Corso di Calcolatori Elettronici I Rappresentazione dei numeri: sistemi di numerazione posizionale Prof. Roberto Canonico Università degli Studi di Napoli Federico II Dipartimento di Ingegneria Elettrica
DettagliCostruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 3: Variabili aleatorie discrete notevoli
Costruzione di macchine Modulo di: Progettazione probabilistica e affidabilità Marco Beghini Lezione 3: Variabili aleatorie discrete notevoli Esperimenti binari ripetuti o esperimenti bernoulliani (Bernoulli
DettagliESERCITAZIONE 5: PROBABILITÀ DISCRETA
ESERCITAZIONE 5: PROBABILITÀ DISCRETA e-mail: tommei@dm.unipi.it web: www.dm.unipi.it/ tommei Ricevimento: Martedi 16-18 Dipartimento di Matematica, piano terra, studio 126 6 Novembre 2012 Esercizi 1-2
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliCodifica dell informazione
Codifica dell informazione Gli algoritmi sono costituiti da istruzioni (blocchi sequenziali, condizionali, iterativi) che operano su dati. Per trasformare un programma in una descrizione eseguibile da
DettagliCodifica binaria: - numeri naturali -
Codifica binaria: - numeri naturali - Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin Tipologie di codici Per la rappresentazione di: caratteri alfabetici
DettagliProbabilità Condizionale - 1
Probabilità Condizionale - 1 Come varia la probabilità al variare della conoscenza, ovvero delle informazioni in possesso di chi la calcola? ESEMPIO - Calcolare la probabilità che in una estrazione della
DettagliL'Informazione e la sua Codifica. Maurizio Palesi
L'Informazione e la sua Codifica Maurizio Palesi 1 Obiettivo Il calcolatore è una macchina digitale Il suo linguaggio è composto da due soli simboli Gli esseri umani sono abituati a comunicare utlizzando
DettagliCorso di Calcolatori Elettronici I A.A Lezione 2 Rappresentazione dei numeri: sistemi di numerazione posizionale ing. Alessandro Cilardo
Corso di Calcolatori Elettronici I A.A. 2012-2013 Lezione 2 Rappresentazione dei numeri: sistemi di numerazione posizionale ing. Alessandro Cilardo Accademia Aeronautica di Pozzuoli Corso Pegaso V GArn
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2006-07 Alberto Perotti Esperimento casuale Esperimento suscettibile di più risultati
DettagliAnalogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale
Analogico vs. Digitale LEZIONE II La codifica binaria Analogico Segnale che può assumere infiniti valori con continuità Digitale Segnale che può assumere solo valori discreti Analogico vs digitale Il computer
DettagliCompressione di Testo
Compressione di Testo Michelangelo Diligenti Dipartimento di Ingegneria dell Informazione Università di Siena Email: diligmic@dii.unisi.it http://www.dii.unisi.it/~diligmic/bdm2011 M. Diligenti 1 Lo standard
DettagliGRIGLIA DI CORREZIONE 2013 Matematica Classe V Scuola Primaria FASCICOLO 1
GRIGLIA DI CORREZIONE 2013 Matematica Classe V Scuola Primaria FASCICOLO 1 LEGENDA AMBITI: NU (Numeri), SF (Spazio e figure), DP (Dati e previsioni) LEGENDA PROCESSI: 1. Conoscere e padroneggiare i contenuti
Dettagli1 Entropia: Riepilogo
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,
DettagliTecniche di compressione senza perdita
FONDAMENTI DI INFORMATICA Prof. PIER LUCA MONTESSORO Facoltà di Ingegneria Università degli Studi di Udine Tecniche di compressione senza perdita 2000 Pier Luca Montessoro (si veda la nota di copyright
DettagliProbabilità I. Concetto di probabilità. Definizioni di base: evento
Concetto di probabilità Nozioni di eventi. Probabilità I Calcolo delle probabilità Definizioni di probabilità Calcolo di probabilità notevoli Probabilità condizionate Cos'è una probabilità? Idea di massima:
DettagliFrequenza lettere in inglese
Frequenza lettere in inglese Sequenza random (entropia log 27 = 4.75): XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYDĚ Sequenza basata su frequenze (entropia circa 4.1): OCRO HLI RGWR NMIELWIS EU LL NBNESEBYAĚ
DettagliCorso di Informatica
CdLS in Odontoiatria e Protesi Dentarie Corso di Informatica Prof. Crescenzio Gallo crescenzio.gallo@unifg.it La Codifica 2 Informazioni Numeri Naturali Relativi Reali Testi Informazioni tradizionali Immagini
DettagliL Aritmetica del Calcolatore
L Aritmetica del Calcolatore Luca Gemignani luca.gemignani@unipi.it 23 febbraio 2018 Indice Lezione 1: Rappresentazione in Base e Numeri di Macchina. 1 Lezione 2: Aritmetica di Macchina. 3 Lezione 1: Rappresentazione
DettagliProbabilità I Calcolo delle probabilità
Probabilità I Calcolo delle probabilità Nozioni di eventi. Definizioni di probabilità Calcolo di probabilità notevoli Probabilità condizionate Concetto di probabilità Cos'è una probabilità? Idea di massima:
DettagliFondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012
Fondamenti di Informatica - 1 Prof. B.Buttarazzi A.A. 2011/2012 Sommario Rappresentazione dei numeri naturali (N) Rappresentazione dei numeri interi (Z) Modulo e segno In complemento a 2 Operazioni aritmetiche
DettagliCalcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012
Fisciano, 10/1/2012 Esercizio 1 Un esperimento consiste nel generare a caso un vettore di interi (x 1, x 2, x 3, x 4 ), dove x i {1, 2, 3, 4, 5, 6} i. (i) Si individui lo spazio campionario, determinandone
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più
DettagliCorso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE
Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati e aleatori Architettura
Dettagli