Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.
|
|
- Vittoria Bartolini
- 6 anni fa
- Visualizzazioni
Transcript
1 Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1
2 Auto-informazione di un evento Prima di effettuare un esperimento aleatorio, sono indeciso sul risultato che osserverò So solo che un evento potrà accadere con Quando l esperimento è concluso, so se Se Se si è verificato o no è un evento raro, allora sono molto sorpreso dal risultato è quasi un evento certo, allora non sono sorpreso dal risultato «Weather forecast for tonight: dark. Continued dark overnight, with widely scattered light by morning.» (G. Carlin)
3 Auto-informazione di un evento Misura del livello di «sorpresa» o di informazione portata dall accadere dell evento Se l evento è certo, Se l evento è raro,, allora non porta informazione, allora porta molta informazione Se il logaritmo è naturale, ho misurato l informazione in nat Se il logaritmo è in base 2, ho misurato l informazione in bit
4 Esempio: lancio di una moneta Si consideri l evento : «Esce testa» Moneta bilanciata: Il verificarsi di dà bit di informazione Moneta sbilanciata: Il verificarsi di dà bit di informazione
5 Esempio: lancio di un dado Si consideri l evento : «Esce la faccia 1» Dado bilanciato: Il verificarsi di dà bit di informazione Si consideri l evento : «Esce una faccia pari» Dado bilanciato: Il verificarsi di dà bit di informazione
6 Perché l informazione è un logaritmo? Intuitivamente, il contenuto di informazione di due eventi indipendenti è la somma dei due contributi di informazione Es: A=«Esce testa al primo lancio», B=«Esce testa al secondo lancio»
7 Contenuto informativo di una v.a. discreta Un esperimento aleatorio è rappresentato da una v.a. X Ad ogni evento elementare è associata una prob. e quindi una autoinformazione Informazione media, o entropia, di una v.a. discreta Interpretazione: l entropia è il numero di bit di informazione che mediamente mi aspetto di osservare dall esperimento X
8 Esempio: entropia di una costante Si consideri una v.a. X degenere, dove per qualche Per definizione, si pone Non esistono v.a. discrete con entropia più piccola di 0
9 Esempio: v.a. uniforme discreta Sia X una v.a. uniforme discreta su m valori Data una v.a. discreta con risultati elementari, l uniforme è quella che massimizza l incertezza sul risultato
10 Esempio: lancio di moneta sbilanciata Sia X una v.a. che descrive il lancio di una moneta con p
11 Esempio: numero di lanci alla prima testa Esperimento: lancio una moneta bilanciata fino all uscita della prima testa V.a. discreta X che conta il numero di lanci:
12 Unità 30 Sommario Codifica di messaggi Diseguaglianza di Kraft-McMillan Codifica di sorgente Bibliografia [Bel] -- [Ros] 9.4 [Pap] -- 12
13 Rappresentare un risultato in bit Si vuole rappresentare il risultato di una v.a. con una stringa di bit Ad es., per trasmetterlo a qualcuno con un sistema di comunicazione per memorizzarlo su un supporto elettronico Quanti bit devo usare per rappresentare un risultato? Come devo scegliere le sequenze di bit? Es: per rappresentare «testa»/«croce» nel lancio di moneta posso usare Uso un bit per ogni risultato generato. È un metodo efficiente?
14 Rappresentazione dei lanci di moneta Se la moneta è bilanciata, sappiamo che ogni lancio genera 1 bit di informazione Ha senso rappresentare ogni lancio con un messaggio lungo 1 bit Se la moneta è fortemente sbilanciata, ogni lancio genera molto meno di 1 bit di informazione È uno spreco rappresentare ogni lancio con un messaggio lungo 1 bit Il risultato di un lancio deve essere descritto da un messaggio lungo almeno 1 bit. Come faccio a trasmettere mediamente meno di 1 bit per lancio?
15 Rappresentazione dei lanci di moneta Idea: proviamo a codificare 2 lanci consecutivi di moneta così facendo spendo sempre 1 bit per ogni prova! Proviamo a risparmiare bit sulle coppie più probabili lunghezza media del messaggio se? Uso bit per lancio
16 Codici di lunghezza variabile È possibile fare meglio di 0.84 bit per lancio di moneta? Sappiamo che con, mediamente si generano bit di inform. Potremmo codificare più di 2 lanci contemporaneamente Esiste un modo sistematico per creare l insieme dei messaggi (codice)? I messaggi non devono creare ambiguità: ad es., ogni messaggio non deve essere un prefisso di qualsiasi altro messaggio (prefix-free code) Es: {1, 0, 01} è ambiguo. {1, 00, 01} non è ambiguo
17 Diseguaglianza di Kraft-McMillan Non tutti i codici di lunghezza variabile sono disambigui (prefix-free) Teorema: Posso trovare un codice prefix-free composto da m messaggi binari di lunghezze se e solo se Significato: Fissato m, non posso scegliere le lunghezze tutte piccole. Qualcuna dovrà essere grande per soddisfare la diseguaglianza Conseguenza: non posso abbassare la lunghezza media più di tanto
18 Codifica di sorgente Qual è il meglio che si può fare? Qual è la lunghezza media minima del codice? Teorema: data una v.a. discreta X con m risultati, per ogni codice prefix-free che assegna una sequenza di bit al risultato si ha È una diretta conseguenza della diseguaglianza di Kraft-McMillan
19 Esempio Si ha
Introduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliIntroduzione al Calcolo delle Probabilità
Introduzione al Calcolo delle Probabilità In tutti quei casi in cui le manifestazioni di un fenomeno (EVENTI) non possono essere determinate a priori in modo univoco, e i risultati possono essere oggetto
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliArchitettura degli Elaboratori
Architettura degli Elaboratori Rappresentazione dell Informazione Barbara Masucci Cosa studiamo oggi Ø Un moderno elaboratore è un sistema elettronico digitale programmabile Ø Il suo comportamento è flessibile
DettagliEsercizi di riepilogo Lezioni
Esercizi di riepilogo Lezioni 9-10-11 Es1: Aspettazioni iterate Siano X, Y, e Z v.a. discrete. Dimostrare le seguenti generalizzazioni della legge delle aspettazioni iterate a) b) c) Es2: Bacchetta Abbiamo
DettagliLanciando un dado, il tuo compagno esclama: uscirà 1, 2, 3, 4, 5 o 6 oppure: uscirà il numero 4. uscirà il numero 9
Lanciando un dado, il tuo compagno esclama: uscirà 1, 2, 3, 4, 5 o 6 oppure: uscirà il numero 4 o ancora: uscirà il numero 9 Possiamo dire che le previsione del tuo compagno sono la prima certa, la seconda
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliIL CALCOLO DELLE PROBABILITA
IL CALCOLO DELLE PROBABILITA INTRODUZIONE Già 3000 anni fa gli Egizi praticavano un antenato del gioco dei dadi, che si svolgeva lanciando una pietra. Il gioco dei dadi era diffuso anche nell antica Roma,
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliLa "macchina" da calcolo
La "macchina" da calcolo Abbiamo detto che gli algoritmi devono essere scritti in un linguaggio "comprensibile all'esecutore" Se il nostro esecutore è il "calcolatore", questo che linguaggio capisce? che
DettagliMATEMATICA. a.a. 2014/15
MATEMATICA a.a. 2014/15 5. Introduzione alla probabilità: Definizioni di probabilità. Evento, prova, esperimento. Eventi indipendenti e incompatibili. Probabilità condizionata. Teorema di Bayes CONCETTI
DettagliPer approfondire: La rappresentazione delle informazioni all interno dei computer
Per approfondire: La rappresentazione delle informazioni all interno dei computer Scelta della rappresentazione dati Di solito è una scelta convenzionale A volte vi sono vincoli da rispettare Nel caso
DettagliEntropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...
Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata
DettagliUniversità del Piemonte Orientale. Corso di laurea in biotecnologie. Corso di Statistica Medica. Le distribuzioni teoriche di probabilità.
Università del Piemonte Orientale Corso di laurea in biotecnologie Corso di Statistica Medica Le distribuzioni teoriche di probabilità. La distribuzione di probabilità binomiale Corso di laurea in biotecnologie
DettagliLezione 3 Calcolo delle probabilità
Lezione 3 Calcolo delle probabilità Definizione di probabilità La probabilità è lo studio degli esperimenti casuali e non deterministici Se lanciamo un dado sappiamo che cadrà ma non è certo che esca il
DettagliLa PROBABILITA è un numero che si associa ad un evento E ed esprime il grado di aspettativa circa il suo verificarsi.
La maggior parte dei fenomeni, ai quali assistiamo quotidianamente, può manifestarsi in vari modi, ma è quasi sempre impossibile stabilire a priori quale di essi si presenterà ogni volta. La PROBABILITA
DettagliP(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =
1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda
DettagliRappresentazione di Numeri Reali. Rappresentazione in virgola fissa (fixed-point) Rappresentazione in virgola fissa (fixed-point)
Rappresentazione di Numeri Reali Un numero reale è una grandezza continua Può assumere infiniti valori In una rappresentazione di lunghezza limitata, deve di solito essere approssimato. Esistono due forme
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliLa codifica. dell informazione
00010010101001110101010100010110101000011100010111 00010010101001110101010100010110101000011100010111 La codifica 00010010101001110101010100010110101000011100010111 dell informazione 00010010101001110101010100010110101000011100010111
DettagliMetodi quantitativi per i mercati finanziari
Metodi quantitativi per i mercati finanziari Esercizi di probabilità Spazi di probabilità Ex. 1 Sia Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}. Siano A e B sottoinsiemi di Ω tali che A = {numeri pari},
DettagliVariabili aleatorie: parte 1. 1 Definizione di variabile aleatoria e misurabilitá
Statistica e analisi dei dati Data: 11 Aprile 2016 Variabili aleatorie: parte 1 Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori 1 Definizione di variabile aleatoria e misurabilitá Informalmente,
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliCodifica di sorgente. esempio di sorgente con memoria
Codifica di sorgente esercitazione su sorgenti markoviane 1 esempio di sorgente con memoria Esempio di sorgente con memoria markoviana a due stati NB: per la simmetria del sistema, i simboli sono equiprobabili
DettagliSTATISTICA 1 ESERCITAZIONE 8
STATISTICA 1 ESERCITAZIONE 8 Dott. Giuseppe Pandolfo 18 Novembre 2013 CALCOLO DELLE PROBABILITA Elementi del calcolo delle probabilità: 1) Esperimento: fenomeno caratterizzato da incertezza 2) Evento:
DettagliAlgoritmi Greedy. Tecniche Algoritmiche: tecnica greedy (o golosa) Un esempio
Algoritmi Greedy Tecniche Algoritmiche: tecnica greedy (o golosa) Idea: per trovare una soluzione globalmente ottima, scegli ripetutamente soluzioni ottime localmente Un esempio Input: lista di interi
DettagliCodifica delle sequenze sorgente
Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze
DettagliSperimentazioni di Fisica I mod. A Statistica - Lezione 3
Sperimentazioni di Fisica I mod. A Statistica - Lezione 3 A Garfagnini, M Mazzocco, C Sada Dipartimento di Fisica G. Galilei, Università di Padova AA 2014/2015 Elementi di Teoria della Probabilità L ineliminabile
DettagliLa codifica digitale
La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore
DettagliSoluzione esercizi (quarta settimana)
Soluzione esercizi (quarta settimana) Marco Riani Esempio totocalcio Gioco la schedina mettendo a caso i segni 1 X 2 Qual è la prob. di fare 14? 1 Esempio Gioco la schedina mettendo a caso i segni (1 X
DettagliP (0 semafori rossi) = 0,05 P (1 semaforo rosso) = 0,20 P (2 semafori rossi) = 0,25 P (3 semafori rossi) = 0,35 P (4 semafori rossi) = 0,15
ESERCITAZIONE : ROBABILITA, VARIABILI CASUALI, BINOMIALE ESERCIZIO N. Una donna che si reca al lavoro in macchina ha osservato che il seguente modello è un approssimato modello probabilistico per il numero
DettagliRappresentazione dei Numeri
Rappresentazione dei Numeri Rappresentazione dei Numeri Il sistema numerico binario è quello che meglio si adatta alle caratteristiche del calcolatore Il problema della rappresentazione consiste nel trovare
DettagliRappresentazione dell Informazione
Rappresentazione dell Informazione Rappresentazione delle informazioni in codice binario Caratteri Naturali e Reali positivi Interi Razionali Rappresentazione del testo Una stringa di bit per ogni simbolo
DettagliModelli probabilistici variabili casuali
Modelli probabilistici variabili casuali Le variabili casuali costituiscono il legame tra il calcolo della probabilità e gli strumenti di statistica descrittiva visti fino ad ora. Idea: pensiamo al ripetersi
DettagliLa codifica. dell informazione
La codifica dell informazione (continua) Codifica dei numeri Il codice ASCII consente di codificare le cifre decimali da 0 a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero
DettagliArchitettura di un elaboratore. Rappresentazione dell informazione digitale
Architettura di un elaboratore Rappresentazione dell informazione digitale Rappresentazione dell informazione digitale L informatica è la scienza della rappresentazione e dell elaborazione dell informazione.
DettagliRappresentazione delle frazioni proprie Aritmetica in binario Barbara Masucci
Architettura degli Elaboratori Rappresentazione delle frazioni proprie Aritmetica in binario Barbara Masucci Punto della situazione Ø Abbiamo visto Ø ll sistema posizionale pesato, in particolare le rappresentazioni
Dettagli{ } corrisponde all uscita della faccia i-esima del dado. La distribuzione di probabilità associata ( )
Università di Trento - Corsi di Laurea in Ingegneria Civile e in Ingegneria per l Ambiente e il Territorio - 2017/18 Analisi Matematica 1 - professore Alberto Valli 2 foglio di esercizi 25 settembre 2017
DettagliNote introduttive alla probabilitá e alla statistica
Note introduttive alla probabilitá e alla statistica 1 marzo 2017 Presentiamo sinteticamente alcuni concetti introduttivi alla probabilitá e statistica 1 Probabilità e statistica Probabilità: Un modello
DettagliPROBABILITA. DEFINIZIONE: Ogni singolo risultato di un esperimento casuale si chiama evento elementare
PROBABILITA La teoria della probabilità si applica ad esperimenti aleatori o casuali: ossia, esperimenti il cui risultato non è prevedibile a priori. Ad esempio, lancio di un dado, lancio di una moneta,
DettagliSomma di numeri binari
Fondamenti di Informatica: Codifica Binaria dell Informazione 1 Somma di numeri binari 0 + 0 = 0 0 + 1 = 1 1 + 0 = 1 1 + 1 = 10 Esempio: 10011011 + 00101011 = 11000110 in base e una base Fondamenti di
DettagliVARIABILI ALEATORIE Una moneta equilibrata viene lanciata più volte. Qual è la probabilità che al 6 lancio:
VARIABILI ALEATORIE. Una moneta equilibrata viene lanciata più volte. Qual è la probabilità che al lancio: a) si abbia testa per la prima volta? b) Si sia avuto testa almeno una volta? c) Si sia avuta
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita
DettagliEsercizi di Calcolo delle Probabilità
Esercizi di Calcolo delle Probabilità Versione del 1/05/005 Corso di Statistica Anno Accademico 00/05 Antonio Giannitrapani, Simone Paoletti Calcolo delle probabilità Esercizio 1. Un dado viene lanciato
DettagliProbabilità I Calcolo delle probabilità
Probabilità I Calcolo delle probabilità Nozioni di eventi. Definizioni di probabilità Calcolo di probabilità notevoli Probabilità condizionate Concetto di probabilità Cos'è una probabilità? Idea di massima:
DettagliConcetti di base. Riferimenti
Concetti di base Storia sistemi di numerazione Concetti di base problema, algoritmo, programma informazione e dati informazione digitale e analogica bit e codifica dell'informazione FdI 2013/2014 GMDN
DettagliIntroduzione alla programmazione
Introduzione alla programmazione Risolvere un problema Per risolvere un problema si procede innanzitutto all individuazione Delle informazioni, dei dati noti Dei risultati desiderati Il secondo passo consiste
DettagliModulo 1. Concetti base della Tecnologia dell informazione. Prof. Nicolello Cristiano. Modulo 1
Concetti base della Tecnologia dell informazione Algoritmi Come interpreta un computer un problema? Algoritmi Algoritmo: sequenza ordinata di istruzioni per risolvere un problema (tradotto: sequenza di
Dettagli1 4 Esempio 2. Si determini la distribuzione di probabilità della variabile casuale X = punteggio ottenuto lanciando un dado. Si ha immediatamente:
CAPITOLO TERZO VARIABILI CASUALI. Le variabili casuali e la loro distribuzione di probabilità In molte situazioni, dato uno spazio di probabilità S, si è interessati non tanto agli eventi elementari (o
DettagliProgramma del corso. Introduzione Rappresentazione delle Informazioni Calcolo proposizionale Architettura del calcolatore Reti di calcolatori
Programma del corso Introduzione Rappresentazione delle Informazioni Calcolo proposizionale Architettura del calcolatore Reti di calcolatori Codifica dell informazione Il calcolatore memorizza ed elabora
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliLe variabili casuali o aleatorie
Le variabili casuali o aleatorie Intuitivamente un numero casuale o aleatorio è un numero sul cui valore non siamo certi per carenza di informazioni - ad esempio la durata di un macchinario, il valore
DettagliCALCOLO DELLE PROBABILITA' risultato non può essere previsto con certezza ogni risultato possibile di un esperimento
CALCOLO DELLE PROBABILITA' Esperimento o prova Evento Spazio Campionario (Ω) una qualsiasi operazione il cui risultato non può essere previsto con certezza ogni risultato possibile di un esperimento insieme
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliRappresentazioni ottale ed esadecimale Barbara Masucci
Architettura degli Elaboratori Rappresentazioni ottale ed esadecimale Barbara Masucci Punto della situazione Ø Abbiamo visto Ø ll sistema posizionale pesato, in particolare le rappresentazioni con basi
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliEsercizi su variabili aleatorie discrete
Esercizi su variabili aleatorie discrete Esercizio 1. Data la variabile aleatoria discreta X, caratterizzata dalla seguente rappresentazione nello spazio degli stati: 1 0,25 X = { 0 0,50 1 0,25 calcolare
DettagliAlcune v.a. discrete notevoli
Alcune v.a. discrete notevoli Variabile aleatoria Bernoulliana Il risultato X di un esperimento aleatorio può essere classificato nel modo che segue: successo oppure insuccesso. Indichiamo: Successo =
Dettagliincompatibili compatibili complementari eventi composti probabilità composta
Un evento si dice casuale, o aleatorio, se il suo verificarsi dipende esclusivamente dal caso. La probabilità matematica p di un evento aleatorio è il rapporto fra il numero dei casi favorevoli f e il
Dettaglicarattere a b c d e f cod. var
Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile
DettagliDefinizione 1. Una k-colorazione dei vertici di un grafo G consiste nell assegnazione di k colori 1, 2,..., k ai vertici di G in modo tale che a due
Definizione 1. Una k-colorazione dei vertici di un grafo G consiste nell assegnazione di k colori 1, 2,..., k ai vertici di G in modo tale che a due vertici adiacenti non sia assegnato lo stesso colore.
Dettagli3.1 La probabilità: eventi e variabili casuali
Capitolo 3 Elementi di teoria della probabilità Abbiamo già notato come, per la ineliminabile presenza degli errori di misura, quello che otteniamo come risultato della stima del valore di una grandezza
DettagliLa probabilità composta
La probabilità composta DEFINIZIONE. Un evento E si dice composto se il suo verificarsi è legato al verificarsi contemporaneo (o in successione) degli eventi E 1, E 2 che lo compongono. Consideriamo il
DettagliLA CODIFICA DELL INFORMAZIONE. Introduzione ai sistemi informatici D. Sciuto, G. Buonanno, L. Mari, McGraw-Hill Cap.2
LA CODIFICA DELL INFORMAZIONE Introduzione ai sistemi informatici D. Sciuto, G. Buonanno, L. Mari, McGraw-Hill Cap.2 Codifica dati e istruzioni Per scrivere un programma è necessario rappresentare istruzioni
DettagliEsercizi di riepilogo
Esercizi di riepilogo Es1: Scommesse al casinò Tizio e Caio si alternano al tavolo di un casinò. Tizio gioca negli istanti di tempo dispari, mentre Caio in quelli pari Ad ogni istante di tempo, il guadagno
DettagliFondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012
Fondamenti di Informatica - 1 Prof. B.Buttarazzi A.A. 2011/2012 Sommario Rappresentazione dei numeri naturali (N) Rappresentazione dei numeri interi (Z) Modulo e segno In complemento a 2 Operazioni aritmetiche
DettagliLezione 12. Statistica. Alfonso Iodice D Enza Università degli studi di Cassino. Lezione 12. A. Iodice.
discrete uniforme Bernoulli Poisson Statistica Alfonso Iodice D Enza iodicede@unicas.it Università degli studi di Cassino () Statistica 1 / 56 Outline discrete uniforme Bernoulli Poisson 1 2 discrete 3
DettagliEsercitazione N. 1 (11 ottobre 2016)
Esercitazione N. 1 (11 ottobre 2016) Un'urna contiene elementi. Vengono estratti di seguito elementi, ogni elemento una volta estratto è riposto nell'urna. Calcolare la probabilità dell evento: Problema
DettagliEsercitazione i 1 Codifica e Rappresentazione dell Informazione Claudia Raibulet raibulet@disco.unimib.it Esercizio i 1 Convertire il numero decimale 99in binario i e poi questo in esadecimale. 99 10 =
DettagliNOZIONI DI CALCOLO DELLE PROBABILITÀ
NOZIONI DI CALCOLO DELLE PROBABILITÀ ESPERIMENTO CASUALE: un esperimento si dice casuale quando gli esiti (manifestazioni o eventi) non possono essere previsti con certezza. PROVA: le ripetizioni, o occasioni
DettagliPROBLEMI ALGORITMI E PROGRAMMAZIONE
PROBLEMI ALGORITMI E PROGRAMMAZIONE SCIENZE E TECNOLOGIE APPLICATE CLASSE SECONDA D PROGRAMMARE = SPECIFICARE UN PROCEDIMENTO CAPACE DI FAR SVOLGERE AD UNA MACCHINA UNA SERIE ORDINATA DI OPERAZIONI AL
Dettagli1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3.
Corso di Laurea INTERFACOLTÀ - Esercitazione di Statistica n 6 ESERCIZIO 1: 1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3. lancio di
DettagliNumeri e caratteri in binario. Prof.ssa Antonella Serra
Numeri e caratteri in binario SISTEMI DI NUMERAZIONE Viene definito sistema di numerazione o numerazione l'insieme delle regole e dei simboli per rappresentare i numeri. Assumono particolare caratteristica
DettagliLo spazio degli eventi del lancio di un dado regolare a sei facce è l insieme U 1. 2. 3. U 4. 5. 6
EVENTI ALEATORI E LORO RAPPRESENTAZIONE Lo spazio degli eventi del lancio di un dado regolare a sei facce è l insieme U... U.. La definizione classica di probabilità dice che, se gli eventi che si considerano
DettagliÈ l insieme di tutti i possibili esiti di un esperimento aleatorio; si indica generalmente con il simbolo.
A Ripasso Terminologia DOMADE Spazio campionario Evento Evento certo Evento elementare Evento impossibile Evento unione Evento intersezione Eventi incompatibili Evento contrario RISPOSTE È l insieme di
DettagliLa Rappresentazione Dell Informazione
La Rappresentazione Dell Informazione Parte III I codici I Codici Un codice è una funzione che associa ad una sequenza di simboli un significato Un codice serve a: Permettere l elaborazione e la memorizzazione
DettagliLa Rappresentazione Dell informazione
La Rappresentazione Dell informazione Parte I I Sistemi Di Numerazione La Rappresentazione Una rappresentazione è una relazione tra entità Un oggetto (rappresentante) rappresenta un altro oggetto (rappresentato),
DettagliESERCIZI SU EVENTI E VARIABILI ALEATORIE DISCRETE
ESERCIZI SU EVENTI E VARIABILI ALEATORIE DISCRETE Docente titolare: Irene Crimaldi 26 novembre 2009 Es.1 Supponendo che la probabilità di nascita maschile e femminile sia la stessa, calcolare la probabilità
Dettaglip k q n k = p n (k) = n 12 = 1 = 12 1 12 11 10 9 1 0,1208. q = 1 2 e si ha: p 12 (8) = 12 8 4
CAPITOLO QUARTO DISTRIBUZIONE BINOMIALE (O DI BERNOULLI) Molti degli esempi che abbiamo presentato nei capitoli precedenti possono essere pensati come casi particolari di uno schema generale di prove ripetute,
DettagliPer capire qual è l altezza media degli italiani è stato intervistato un campione di 1523 cittadini. La media campionaria dell altezza risulta essere:
PROBABILITÀ E STATISTICA Per capire qual è l altezza media degli italiani è stato intervistato un campione di 1523 cittadini. La media campionaria dell altezza risulta essere: x = 172, 3 cm Possiamo affermare
DettagliCorso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dei numeri relativi
Codice BCD Prima di passare alla rappresentazione dei numeri relativi in binario vediamo un tipo di codifica che ha una certa rilevanza in alcune applicazioni: il codice BCD (Binary Coded Decimal). È un
DettagliLa codifica binaria. Informatica B. Daniele Loiacono
La codifica binaria Informatica B Introduzione Il calcolatore usa internamente una codifica binaria ( e ) per rappresentare: i dati da elaborare le istruzioni dei programmi eseguibili Fondamenti di codifica
DettagliStatistica. Esercitazione 10. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice. V.C.
uniforme Bernoulli binomiale di Esercitazione 10 Alfonso Iodice D Enza iodicede@unicas.it Università degli studi di Cassino () 1 / 55 Outline uniforme Bernoulli binomiale di 1 uniforme 2 Bernoulli 3 4
DettagliCorso di Informatica
CdLS in Odontoiatria e Protesi Dentarie Corso di Informatica Prof. Crescenzio Gallo crescenzio.gallo@unifg.it Rappresentazione delle immagini 2 Rappresentazione delle immagini Le forme e i colori presenti
DettagliRappresentazione digitale delle informazioni
Rappresentazione digitale delle informazioni Informazione oggi Informatica: disciplina che studia l elaborazione automatica di informazioni. Elaboratore: sistema per l elaborazione automatica delle informazioni.
DettagliParte Terza: Codificare l informazione. Fondamenti di informatica
Parte Terza: Codificare l informazione Fondamenti di informatica Informatica e telecomunicazione Cos è l informatica? Lo studio sistematico degli algoritmi che descrivono e trasformano l informazione:
DettagliEsercizi Teoria della Probabilità
Esercizi Teoria della Probabilità Esercizio 1 Durante un corso universitario, uno studente prova a svolgere una serie di esercizi. La risposta agli esercizi è di tipo binario (SI/NO). Supponendo la completa
Dettagliesperimento casuale: è un esperimento condotto sotto l effetto del caso; evento elementare: ciascuno dei possibili esiti di un esperimento casuale;
Capitolo 15 Suggerimenti agli esercizi a cura di Elena Siletti Esercizio 15.1: Suggerimento Si ricordi che: esperimento casuale: è un esperimento condotto sotto l effetto del caso; evento elementare: ciascuno
DettagliSoluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni
Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame
DettagliAritmetica dei Calcolatori
Aritmetica dei Calcolatori Luca Abeni March 5, 2014 Codifica dei Numeri Interi k bit codificano 2 k simboli/valori/numeri... Si usa la base 2 per codificare i numeri Numeri naturali n N: valori da 0 a
DettagliStatistica Inferenziale
Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Riepilogo lezione 1 Abbiamo visto: Definizioni di statistica, statistica inferenziale, probabilità (interpretazione
Dettagli1.2f: Operazioni Binarie
1.2f: Operazioni Binarie 2 18 ott 2011 Bibliografia Questi lucidi 3 18 ott 2011 Operazioni binarie Per effettuare operazioni è necessario conoscere la definizione del comportamento per ogni coppia di simboli
DettagliFigura 7: Ruota della Fortuna. Quanti sono i casi possibili? G. Sanfilippo - CdP - STAD - Lezione 2 del 12 Aprile pag. 15
Figura 7: Ruota della Fortuna. Quanti sono i casi possibili? G. Sanfilippo - CdP - STAD - Lezione 2 del 12 Aprile 2012- pag. 15 Casi Possibili B= La lancetta indica il Blu V= La lancetta indica il Verde
DettagliP (T + H)P (H) P (T + H)P (H) + P (T + H)P ( H) 0.95P (H) 0.95P (H) (1 P (H)) ragionevole screening su popolazione a rischio
Test per HIV T + = test positivo ; T = test negativo H = presenza di HIV Test sensibile: P (T + H) = 0.95 possibilità di falsi risultati P (T H) = 1 0.95 = 0.05 P (T + H) = 0.05 (supponiamo) calcoliamo
Dettagli