A cura del prof. Gino Tombolini Itis Montani Fermo

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "A cura del prof. Gino Tombolini Itis Montani Fermo"

Transcript

1 TEORIA DELL'IFORMAZIOE Una informazione è un frammento della realtà; noi possiamo conoscere tale realtà attraverso una rappresentazione di essa per mezzo di simboli secondo un codice convenuto, e che giunge a noi in virtù della trasmissione di una certa quantità di questi simboli che chiamiamo messaggio. Un simbolo può essere, ad esempio, una sensazione che rivela la forma, il colore, il suono, una parola, una lettera o altro. Chiamiamo alfabeto l'insieme dei simboli che si applica alla trasmissione di un determinato tipo di messaggio. L'alfabeto ed i simboli sono tutti utili a trasmetterci non tutti i dati della realtà, ma una certa quantità. Ci domandiamo : "Come misurare la quantità di informazione trasmessa da un messaggio?". La quantità di informazione deve essere indipendente dal tipo di alfabeto e valida per qualsiasi alfabeto. Esempio : Alfabeto I di 6 lettere A...P (A) Alfabeto II di 4 lettere A B C D (A2) Alfabeto III di 2 lettere A B (A3) Cerchiamo di trascrivere A mediante A2; non possiamo avere corrispondenza biunivoca tra lettere di A e lettere di A2 ma dobbiamo usare due lettere di A2 per una lettera di A, ottenendo cosi un codice : A A A AA B AB C AC D AD E BA P DD Ora vi è equivalenza tra i due messaggi trasmessi con A o con il codice adottato mediante A2. Stesso discorso per A2 mediante A3 : A2 A3 A A A AA A AAAA B AB B AAAB C BA C AABA D BB D AABB E ABAA P BBBB Si deduce che scrivendo un messaggio mediante A e poi trascrivendolo mediante A3 (o A2), il messaggio diventa quattro volte (o due volte) più lungo. E' lecito pensare che la quantità di informazione trasmessa da ogni lettera di A è quattro volte maggiore (o due volte maggiore) di quella trasmessa da ciascuna lettera di A3 (o A2). Supponiamo che la quantità di informazione dipenda dal numero di simboli dell'alfabeto. Consideriamo unitaria la quantità di informazione trasmessa da un alfabeto di 2 soli simboli; allora : quantità di informazione di A3 = quantità di informazione di A2 = 2 quantità di informazione di A = 4

2 ora 6, 4, 2 sono i logaritmi in base 2 della quantità di informazione : 6 = = = 2 Possiamo scrivere : I = log 2 n I = Quantità di informazione n = umero di simboli dell'alfabeto La quantità di informazione per simbolo è rappresentata dal numero di simboli dell'alfabeto binario necessari per trascrivere ciascuna lettera dell'alfabeto utilizzato. E' quindi vero che I dipende dalla numerosità dell'insieme a cui appartiene. L'unità di misura della quantità di informazione è il bit (binary digit). Per un messaggio di lettere scelte in un alfabeto di n simboli si hanno n messaggi possibili quindi l'informazione totale vale : I = * log 2 n = log 2 (n ) La quantità di informazione equivale a log2 del numero di variazioni possibili. Immaginiamo che i simboli siano tutti equiprobabili con probabilità p = /n. Si voglia calcolare la probabilità che una sorgente, prelevando casualmente uno fra n simboli dell'alfabeto, riesca a produrre una particolare configurazione di simboli (ad es. ABDAACC dove =7). Tale probabilità equivale al rapporto tra i casi favorevoli (uno solo) ed il numero di casi possibili (n ); tale probabilità vale quindi: p = /n Ricordando la definizione di quantità di informazione (I) per il caso suddetto, si può scrivere : I = log 2 (n ) = log 2 (/(/n )) = log 2 (/p) = - log 2 p Quindi la quantità di informazione è tanto maggiore quanto più p è piccolo, cioè tanto più il messaggio è improbabile. Occorre sottolineare che si può avere anche il caso in cui i simboli non hanno tutti uguale probabilità (pensiamo ad una lingua in cui alcune lettere sono più probabili di altre). In questo caso la quantità di informazione di un messaggio è uguale al prodotto delle probabilità di tutte le lettere che formano il messaggio, probabilità che sono classificate e raggruppate (es. p(a), p(b),... p(z)..). La probabilità di lettere equiprobabili risulta : p tot = p ; se invece esse non sono equiprobabili : p tot = p( xi) quindi la quantità di informazione totale trasportata dal gruppo è pari a : I tot = log 2 /p tot = -log p tot = -log 2 ( Esempio : p( xi) ) = - log 2 p(xi) n=5 simboli p(x)=/4, p(x2)=/8, p(x3)=/8, p(x4)=/4, p(x5)=/4; calcoliamo la quantità di informazione di ogni simbolo: I(x)=log 2 (/p(x)) = log 2 (4) = 2 bit I(x2) = I(x3) = 3 bit I(x4) = I(x5) = 2 bit 2

3 La quantità di informazione in un messaggio di 4 lettere ad esempio xx2xx4 è pari alla somma delle quantità di informazione dei simboli componenti: I(messaggio) = I(x) + I(x2) +I(x) +I(x4) = = 9 bit. Se invece i simboli fossero tutti equiprobabili (ad esempio con p(x) = /5), la quantità di informazione trasportata dallo stesso messaggio sarebbe stata : I(messaggio) = 4 * I(x) =4 * log 2 (5) = 9,3 bit. Si può notare in questo esempio che lo stesso messaggio proveniente da sorgenti diverse porta quantità di informazione diversa. Un concetto molto importante nella teoria dell'informazione è il concetto di quantità di informazione media trasportata da ogni simbolo; tale quantità è detta ETROPIA (H). L'entropia è la media ponderata dei contenuti informativi dei vari simboli dell'alfabeto : (formula di Shannon - Wiener) H = p(xi) * I(xi) = p(xi) * log2[/p(xi)] = - p(xi) * log2(p(xi) L'unità di misura dell'entropia è in bit/simbolo. L'entropia rappresenta la misura della varietà (o dell'indeterminazione) dei messaggi prodotti da una sorgente. Una proprietà dell'entropia è che essa è massima quando i simboli sono tutti equiprobabili; ossia le varie p(xi) sono uguali. E' intuitivo pensare che l'entropia diminuisce se i simboli non sono equiprobabili. Come caso limite possiamo pensare ad esempio ad una moneta truccata per la quale vale : probabilità(testa) = probabilità(croce) = 0 H = - p(t) * log 2 (T) - p(c) * log 2 (C) = = 0 Se invece p(t) = /2 p(c) = /2 H = - /2 * (-) - /2 * (-) = Possiamo anche tracciare un grafico che riporta l'andamento dell'entropia rispetto alla probabilità dei simboli; ricordando che p(t) = - p(c), si ottiene la seguente curva : Si vede che H è massimo quando i simboli sono equiprobabili. H 0,5 P(testa) Possiamo a questo punto trarre le seguenti conclusioni : L'entropia H di una sorgente di n simboli non può mai essere superiore a log2n, valore corrispondente ad una sorgente con n simboli equiprobabili. H <= log 2 n CODIFICAZIOE DI SORGETE La codifica consiste nella trascrizione di un messaggio da un linguaggio in un altro. Un codice è una rappresentazione di simboli di una sorgente attraverso delle parole in codice (normalmente nel campo informatico si fa riferimento ad un codice base formato da due cifre binarie). Un codice si dice distinto o non singolare se è sempre possibile distinguere le parole che ne fanno parte, cioè non esistono simboli uguali. Ad esempio : X = X2 = X3 = 0 X4 = 00 3

4 non è distinto poiché X = X2. Un codice distinto è univocamente decifrabile se è sempre possibile identificare una parola inserita in una qualsiasi sequenza di altre parole appartenenti allo stesso codice; in altre parole non avviene mai che una sequenza del codice possa provenire da altre due (o più) sequenze dello stesso codice. Ad esempio il codice (sempre a 4 simboli) : X = X2 = 0 X3 = X4 = 00 e distinto ma non univocamente decifrabile, poiché la ricezione di una sequenza qualsiasi di simboli potrebbe corrispondere a più di una sequenza di simboli; ad esempio la sequenza 00 potrebbe essere interpretata come X4X3 oppure X2X2XX oppure X4XX oppure X2X2X3. Il codice X = X2 = 0 X3 = 00 X4 = 000 e distinto ed univocamente decifrabile in quanto la ricezione di un indica sempre l'inizio di una parola. Per tale ultimo codice, la codifica può però risultare lunga e complessa. Un codice distinto univocamente decifrabile è detto istantaneo se in fase di ricezione è possibile identificare le parole appena dopo l'arrivo della cifra finale. Un codice con tali caratteristiche è quindi il seguente : X = X2 = 0 X3 = 00 X4 = 000 infatti la ricezione di un uno determina la fine della parola che può essere quindi decodificata istantaneamente. Tale codice però non è economicamente ottimale; infatti pensando di codificare con tale tecnica le lettere dell'alfabeto italiano, avremo che l'ultima lettera avrà una lunghezza di 26 bit. Occorre trovare una tecnica più economica di codifica, magari che tenga presente il numero di cifre binarie utilizzate per la codifica dei simboli. Si definisce lunghezza (li) di un simbolo in un codice xi, il numero di cifre binarie di cui esso è composto. Si definisce Lunghezza di un codice (L) la lunghezza media (ponderata) delle sue parole : n L = p(xi) * li ed è espresso in bit / parole in codice. Siccome il miglior codice è sicuramente quello con minor numero medio di cifre binarie, cerchiamo di trovare, per una sorgente, un codice istantaneo di lunghezza L minima. Esiste il I* teorema di Shannon che ci aiuta in tale ricerca: Data una sorgente ad n simboli, senza memoria, e con alfabeto di codice binario, è sempre possibile trovare un codice istantaneo tale che la sua lunghezza L soddisfi la condizione H <= L In altre parole i simboli non possono essere rappresentati con un numero di cifre binarie inferiori all'entropia della sorgente stessa, cioè la lunghezza minima del codice è sempre maggiore o al più uguale all'entropia della sorgente. Ad esempio il codice a 4 simboli : X = 00 X2 = 0 X3 = 0 X4 = e distinto, univocamente decifrabile, istantaneo (perché ogni due cifre si può decodificare istantaneamente il simbolo ricevuto); considerando ad esempio : p(x) = /2 p(x2) = /4 p(x3) = /8 p(x4) = /8 si ha : L = pi*li = /2 * 2 + /4 * 2 + /8 * 2 + /8 * 2 = 2 bit/p.c. H = pi*log 2 /pi = /2 * + /4 * 2 + /8 * 3 + /8 * 3 = =,75 bit/simbolo 4

5 E' da notare inoltre che solo i codici non istantanei possono avere lunghezza minore dell'entropia di sorgente. Il teorema visto ci dice quale deve essere la lunghezza minima del codice, ma non da indicazioni circa la costruzione del codice stesso. Una delle procedure empiriche più note per ottenere ciò è quella di Huffman. Definiamo prefisso di una parola in codice una qualsiasi delle sequenze binarie ottenute troncando la parola stessa; come conseguenza, all'interno di un codice istantaneo non deve esistere nessuna parola che sia prefisso di un'altra. Immaginiamo di dover associare un codice binario ad un alfabeto di cinque simboli X, X2, X3, X4, X5. Possiamo provare come segue : - assegniamo X=, X2=0, qui ci blocchiamo perché qualsiasi altra sequenza avrebbe come prefisso X o X2; 2 - riproviamo: assegniamo X=, X2=00, il resto delle parole non deve iniziare ne con ne con 00; quindi X3=00, X4=0, X5=?, non abbiamo più sequenze univoche; 3 - proviamo ancora : X=, X2=000, X3=00, X4=00, X5=0; questo è un codice istantaneo; 4 - possiamo anche scrivere : X=0, X2=, X3=0, X4=00, X5=000; anche questo codice è istantaneo. Quale sarà il codice migliore? Occorre conoscere la probabilità di ricorrenza dei simboli della sorgente (non abbiamo in fatti tenuto conto di tale probabilità di occorrenza). Si ha un codice istantaneo ottimale quando H = L. L'algoritmo per ottenere tale codice, tenendo conto anche della probabilità dei simboli, è l'algoritmo di HUFFMA. Consideriamo un alfabeto di n simboli con probabilità conosciuta : p(), p(2),..,p(n); l'algoritmo è descrivibile come segue : Algoritmo di Huffman Ripetere n - 2 volte assegnare la cifra finale (0 o ) ai simboli con probabilità minore creare un nuovo simbolo con probabilità pari alla otteniamo un somma delle probabilità codice con un dei simboli di partenza simbolo in meno fine for assegnare ai due simboli rimasti i valori 0 e restano due soli simboli Esempio : p(x)=/2 p(x2)=/4 p(x3)=/8 p(x4)=/8 X3 (p=/8) -- 0 X4 (p=/8) -- X34 (p=/4) -- 0 X2 (p=/4) -- X234 (p=/2) -- 0 X (p=/2) -- Di conseguenza : X= X2=0 X3=000 X4=00 è un codice istantaneo e nessuna parola è prefisso di un'altra. L = pi*li = /2* + /4*2 + /8*3 + /8*3 =,75 b/pc = H 5

6 Possono esistere più codici ottimali (basta scambiare 0 con ) del tutto equivalenti. Il codice che si ottiene è un codice non uniforme cioè le parole hanno diversa lunghezza. Si definisce efficienza di un codice il rapporto tra l entropia e la lunghezza del codice. Il codice ottimale ha un efficienza pari a (H=L). µ = H / L CAPACITÀ DI CAALE Se il canale è soggetto a disturbi ed occorre quindi utilizzare una successiva codifica di canale per diminuire l'effetto del rumore. I dati vengono presentati al canale sotto forma di tensioni positive e negative (0=V+, =V-) per un tempo prefissato T; la frequenza di cifra vale quindi /T. Il ricevitore campiona il canale ogni T secondi, vi riscontra una tensione e la interpreta come 0 o (fase di decodifica del canale). Il rumore z presenta sul canale può aver alterato il valore della cifra trasmessa. La probabilità di errore è la probabilità che venga riconosciuta una cifra diversa da quella trasmessa : (indicando con Vz la tensione introdotta dal rumore) pe = p(0) * p(vz < V-) + p() * p(vz > V+) cioè la somma delle probabilità : - che la sorgente trasmetta uno zero (tensione positiva) ed il rumore crei una tensione minore della tensione (negativa) usata per codificare un uno, facendo in modo che venga riconosciuta una tensione complessiva negativa, cioè il segnale corrispondente all'uno logico; - che avvenga il perfetto contrario : venga trasmesso un uno (tensione negativa) ed il rumore alteri questa tensione trasformandola in positiva (codifica dell'uno logico). E' ovvio che il caso peggiore è quello in cui Pe vale /2, cioè si ha il 50% di probabilità di errore su ogni cifra trasmessa. Si noti che è il caso peggiore in quanto se Pe > 50%, basta invertire il livello del segna ricevuto per avere Pe < 50%. Occorre trovare dei meccanismi che permettano di rilevare e correggere l'errore introdotto da canale. Il controllo di parità (pari o dispari) è una di queste tecniche e consiste nell'aggiungere un bit al flusso di bit da trasmettere, bit di valore tale da rendere pari (o dispari) il numero totale di bit trasmessi. In ricezione si effettua il controllo tramite operazioni di XOR, sul blocco di bit ricevuti e si controlla la rispondenza del bit aggiunto. E' ovvio che il riscontro di un errore non permette di correggere l'errore stesso, ma solo di rilevarlo. Inoltre non è possibile accorgersi dell'errore nel caso di un numero pari di bit errati. Un'altra tecnica che oltre al riscontro permette la correzione del bit errato è la tecnica di controllo di parità longitudinale e trasversale. Esempio : blocco da trasmettere controllo di parità per riga 0 0 (longitudinale) 0 0 controllo di parità complessivo controllo di parità per colonna (verticale o trasversale) viene trasmesso : In ricezione il blocco verrà rimesso in matrice e controllato. Se si riscontra un errore di un bit sul blocco dati, risultano errati un bit del controllo longitudinale ed un bit del controllo trasversale; ciò permetterebbe di rilevare e correggere il bit errato (anche se normalmente si preferisce 6

7 richiedere la ritrasmissione di tutto il blocco). Ovviamente se si ha un errore su più di un bit, la tecnica funziona solo per il rilevamento e no per la correzione. Se risultano errati quattro bit in posizioni particolari, nonostante l'errore il blocco viene accettato come corretto (il controllo fallisce). Sono state studiate e sviluppate altre tecniche più complesse per permettere il rilevamento degli errori, evitando al massimo che il blocco dati protetto da tali meccanismi di controllo possa essere riconosciuto come corretto se presenta dei bit errati per colpa del canale di trasmissione (si veda il caso precedente). La più nota di queste tecniche è conosciuta con il nome di tecnica del polinomio generatore. Essa consiste nell'aggiungere al blocco un gruppo di bit hanno un legame matematico con i bit del blocco che li contengono. In ricezione si verificherà che tale legame matematico sia ancora verificato. Più precisamente, immaginiamo che il blocco da trasmettere sia formato da p bit (ad esempio il blocco abbia p=8 bit e sia 00000); a tali bit si fanno corrispondere i coefficienti di un polinomio (polinomio del messaggio) di grado p -. Otteniamo perciò : P(x) = *x 7 + 0*x 6 + *x 5 + 0*x 4 + 0*x 3 + 0*x 2 + *x + 0*x 0 cioè P(x) = x 7 + x 5 + x Scelto un opportuno polinomio G(x) di grado r <= p- detto polinomio generatore, fissato normalmente da accordi internazionali e su basi matematiche e statistiche, si effettua la divisione polinomiale modulo 2 tra P(x) e G(x), si calcola il resto R(x) (di grado inferiore a G(x) di una unità) e tale resto viene accodato al polinomio P(x). In ricezione si effettua la divisione polinomiale modulo 2 su tutto il blocco ricevuto ed ovviamente si deve ottenere zero come resto, altrimenti vuol dire che il dato è stato compromesso da errori. Il risultato della divisione non è significativo e quindi viene tralasciato In pratica a P(x) ota sulla divisione modulo 2: vengono aggiunti r zeri consiste nell'effettuare l'opera- prima di effettuare la zione di XOR tra un eguale numero divisione e tali zeri di cifre significative del divi- saranno poi sostituiti dendo e del divisore. Esempio dall'effettivo resto della divisione. Esempio della tecnica del polinomio generatore: P(x) è il polinomio dato sopra (p=8, grado 7); G(x) = x3 + (grado r=3) 0 P(x) viene trasformato aggiungendo 3 zeri, cioè operando : 0 x3*p(x)=x0 + x8 + x4 + x A questo punto si effettua - 0 (resto) la divisione binario modulo 2 : <--- resto R(x) 7

8 Il messaggio risulta : Questo polinomio è ora divisibile (modulo 2) per G(x). La tecnica del polinomio generatore (o anche codice ciclico) è la più potente per il rilevamento di errori ed inoltre richiede dei circuiti estremamente semplici per la sua generazione (circuiti XOR). Tre sono i polinomi divenuti standard internazionali : CRC-2 = x2 + x + x3 + x + CRC-6 = x6 + x5 + x2 + CRC-CCITT = x6 + x2 + x5 + Esistono anche altre tecniche di controllo di errori ed alcune permettono anche la relativa correzione. La più nota di queste tecniche è la tecnica di Hamming. Tutte fanno uso di un numero aggiuntivo di simboli, cioè per codificare messaggio di k simboli si usano n (n>k) simboli; le rimanenti sequenze di n - k simboli hanno la funzione di risolvere e correggere errori. In tale modo la velocità di trasmissione dei dati scende e al limite si può pensare che per ottenere una correzione efficiente (probabilità di errore pari a zero) occorrerebbe far tendere a zero pure la velocità di trasmissione per l'aggiunta di un notevole numero di bit di controllo. Mostreremo comunque che, anche dovendo trasmettere informazioni su canali disturbati, è possibile ottenere un tasso di errore piccolo a piacere purché non si superi una velocità massima caratteristica, detta CAPACITÀ' DI CAALE. Supponiamo che i nostri dati binari vengano inviati sul canale ad una velocità di /T bit/secondo (T=periodo di trasmissione di due bit consecutivi), utilizzando un segnale a due livelli (+ e -). Se i simboli da trasmettere sono equiprobabili ( p(0)=p()=/2 ), sappiamo che l'entropia della sorgente assume il valore massimo pari ad bit/simbolo e quindi la velocità di trasmissione dell'informazione in tal caso assume il valore di /T bit/sec che risulta quindi essere anche il massimo in quanto per ogni altra probabilità di ricorrenza H è inferiore a e quindi anche la velocità risulta inferiore a /T bit/secondo, infatti per ottenere lo stesso contenuto informativo dobbiamo trasmettere più cifre, visto che il contenuto informativo medio per cifra (entropia) è minore. Se usiamo un segnale a quattro livelli (anziché due) vuol dire che ogni livello corrisponderà a due cifre binarie consecutive; in tal caso la velocità massima di trasmissione dell'informazione (per simboli equiprobabili) è di 2/T bit/secondo. In generale, utilizzando un segnale a livelli per trasmettere dati binari con intervallo di segnalazione (periodo del segnale trasmesso attraverso il canale) pari a T, la velocità massima dell'informazione (o capacità di canale) risulta : C = (log2)/t bit/sec. Tale velocità massima verrà raggiunta solo se tutti i (livelli) sono equiprobabili ( p= / ). nuovi simboli 8

R. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010

R. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010 1 11. Data link layer: codici di rilevazione di errore, gestione degli errori La rilevazione di errore Un codice a rilevazione di errore ha lo scopo di permettere al ricevente di determinare se vi sono

Dettagli

La codifica digitale

La codifica digitale La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Sorgenti discrete e informazione

Sorgenti discrete e informazione Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

Roberto Maieli La trasmissione dell informazione

Roberto Maieli La trasmissione dell informazione Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio

Dettagli

Controllo e correzione degli errori

Controllo e correzione degli errori FONDAMENTI DI INFORMATICA Prof. PIER LUCA MONTESSORO Facoltà di Ingegneria Università degli Studi di Udine Controllo e correzione degli errori 2000 Pier Luca Montessoro si veda la nota di copyright alla

Dettagli

Rappresentazioni numeriche

Rappresentazioni numeriche Rappresentazioni numeriche Un numero è dotato di un valore una rappresentazione La rappresentazione di un numero è il sistema che utilizziamo per indicarne il valore. Normalmente è una sequenza (stringa)

Dettagli

Codifica binaria. Rappresentazioni medianti basi diverse

Codifica binaria. Rappresentazioni medianti basi diverse Codifica binaria Rappresentazione di numeri Notazione di tipo posizionale (come la notazione decimale). Ogni numero è rappresentato da una sequenza di simboli Il valore del numero dipende non solo dalla

Dettagli

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dei numeri relativi

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dei numeri relativi Codice BCD Prima di passare alla rappresentazione dei numeri relativi in binario vediamo un tipo di codifica che ha una certa rilevanza in alcune applicazioni: il codice BCD (Binary Coded Decimal). È un

Dettagli

La Rappresentazione dell Informazione

La Rappresentazione dell Informazione La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice

Dettagli

LEZIONE 15. (15.1.2) p(x) = a 0 x n + a 1 x n a n 1 x + a n = a h x n h.

LEZIONE 15. (15.1.2) p(x) = a 0 x n + a 1 x n a n 1 x + a n = a h x n h. LEZIONE 15 15.1. Polinomi a coefficienti complessi e loro e loro radici. In questo paragrafo descriveremo alcune proprietà dei polinomi a coefficienti complessi e delle loro radici. Già nel precedente

Dettagli

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione Codifica di canale (dalle dispense e dalle fotocopie) Codici lineari a blocchi Un codice lineare (n,k) è un codice che assegna una parola lunga n ad ogni blocco lungo k. Si dice che il codice abbia un

Dettagli

Rappresentazione dell Informazione

Rappresentazione dell Informazione Rappresentazione dell Informazione Rappresentazione delle informazioni in codice binario Caratteri Naturali e Reali positivi Interi Razionali Rappresentazione del testo Una stringa di bit per ogni simbolo

Dettagli

2) Codici univocamente decifrabili e codici a prefisso.

2) Codici univocamente decifrabili e codici a prefisso. Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il

Dettagli

La trasmissione dell informazione - Generalità

La trasmissione dell informazione - Generalità La trasmissione dell informazione - Generalità L'infomazione codificata può subire "manipolazioni" o "trattamenti". L'elaborazione matematica è una delle possibili manipolazioni dei numeri. L'informazione

Dettagli

Un ripasso di aritmetica: Conversione dalla base 10 alla base 2

Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Dato un numero N rappresentato in base dieci, la sua rappresentazione in base due sarà del tipo: c m c m-1... c 1 c 0 (le c i sono cifre

Dettagli

La codifica. dell informazione

La codifica. dell informazione 00010010101001110101010100010110101000011100010111 00010010101001110101010100010110101000011100010111 La codifica 00010010101001110101010100010110101000011100010111 dell informazione 00010010101001110101010100010110101000011100010111

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

1 Fattorizzazione di polinomi

1 Fattorizzazione di polinomi 1 Fattorizzazione di polinomi Polinomio: un polinomio di grado n nella variabile x, è dato da p(x) = a n x n + a n 1 x n 1 + + a 1 x + a 0 con a n 0, a 0 è detto termine noto, a k è detto coefficiente

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

Parte Seconda. Prova di selezione culturale

Parte Seconda. Prova di selezione culturale Parte Seconda Prova di selezione culturale TEORIA DEGLI INSIEMI MATEMATICA ARITMETICA Insieme = gruppo di elementi di cui si può stabilire inequivocabilmente almeno una caratteristica in comune. Esempi:

Dettagli

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione. Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x

Dettagli

Pag. 1. La Rappresentazione e la Codifica delle informazioni (parte 2) Tipi di dati. Informatica Facoltà di Medicina Veterinaria

Pag. 1. La Rappresentazione e la Codifica delle informazioni (parte 2) Tipi di dati. Informatica Facoltà di Medicina Veterinaria 1 Università degli studi di Parma Dipartimento di Ingegneria dell Informazione Informatica a.a. 2012/13 Tipi di dati Informatica Facoltà di Medicina Veterinaria La Rappresentazione e la Codifica delle

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

Fondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012

Fondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012 Fondamenti di Informatica - 1 Prof. B.Buttarazzi A.A. 2011/2012 I numeri reali Sommario Conversione dei numeri reali da base 10 a base B Rappresentazione dei numeri reali Virgola fissa Virgola mobile (mantissa

Dettagli

Moltiplicazione. Divisione. Multipli e divisori

Moltiplicazione. Divisione. Multipli e divisori Addizione Sottrazione Potenze Moltiplicazione Divisione Multipli e divisori LE QUATTRO OPERAZIONI Una operazione aritmetica è quel procedimento che fa corrispondere ad una coppia ordinata di numeri (termini

Dettagli

Informazione binaria: - codici binari, notazione binaria/ottale/esadecimale -

Informazione binaria: - codici binari, notazione binaria/ottale/esadecimale - Informazione binaria: - codici binari, notazione binaria/ottale/esadecimale - Percorso di Preparazione agli Studi di Ingegneria Università degli Studi di Brescia Docente: Massimiliano Giacomin ... Algoritmi,

Dettagli

PREPARAZIONE ALLE GARE DI MATEMATICA - CORSO BASE

PREPARAZIONE ALLE GARE DI MATEMATICA - CORSO BASE Liceo Scientifico Gullace PREPARAZIONE ALLE GARE DI MATEMATICA - CORSO BASE Aritmetica 014-15 1 Lezione 1 DIVISIBILITÀ, PRIMI E FATTORIZZAZIONE Definizioni DIVISIBILITÀ': dati due interi a e b, diciamo

Dettagli

Rapida Nota sulla Rappresentazione dei Caratteri

Rapida Nota sulla Rappresentazione dei Caratteri TECNOLOGIA DIGITALE TECNOLOGIA DIGITALE (segue) CPU, memoria centrale e dispositivi sono realizzati con tecnologia elettronica digitale Dati ed operazioni vengono codificati tramite sequenze di bit 8 bit

Dettagli

SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA

SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA 1 Esercizio 0.1 Dato P (A) = 0.5 e P (A B) = 0.6, determinare P (B) nei casi in cui: a] A e B sono incompatibili; b] A e B sono indipendenti;

Dettagli

Giovanna Carnovale. October 18, Divisibilità e massimo comun divisore

Giovanna Carnovale. October 18, Divisibilità e massimo comun divisore MCD in N e Polinomi Giovanna Carnovale October 18, 2011 1 Divisibilità e massimo comun divisore 1.1 Divisibilità in N In questa sezione introdurremo il concetto di divisibilità e di massimo comun divisore

Dettagli

Rappresentazione di numeri relativi (interi con segno) Rappresentazione di numeri interi relativi (con N bit) Segno e Valore Assoluto

Rappresentazione di numeri relativi (interi con segno) Rappresentazione di numeri interi relativi (con N bit) Segno e Valore Assoluto Rappresentazione di numeri relativi (interi con segno) E possibile estendere in modo naturale la rappresentazione dei numeri naturali ai numeri relativi. I numeri relativi sono numeri naturali preceduti

Dettagli

Cap. 2 - Rappresentazione in base 2 dei numeri interi

Cap. 2 - Rappresentazione in base 2 dei numeri interi Cap. 2 - Rappresentazione in base 2 dei numeri interi 2.1 I NUMERI INTERI RELATIVI I numeri relativi sono numeri con il segno: essi possono essere quindi positivi e negativi. Si dividono in due categorie:

Dettagli

La codifica. dell informazione

La codifica. dell informazione La codifica dell informazione (continua) Codifica dei numeri Il codice ASCII consente di codificare le cifre decimali da 0 a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero

Dettagli

ESERCITAZIONE N.8. Il calcolatore ad orologio di Gauss. L aritmetica dell orologio di Gauss. Operazioni e calcoli in Z n

ESERCITAZIONE N.8. Il calcolatore ad orologio di Gauss. L aritmetica dell orologio di Gauss. Operazioni e calcoli in Z n Il calcolatore ad orologio di Gauss ESERCITAZIONE N.8 18 novembre L aritmetica dell orologio di Gauss Operazioni e calcoli in Z n 1, 1, -11, sono tra loro equivalenti ( modulo 12 ) Rosalba Barattero Sono

Dettagli

Sistemi di numerazione e codici. Capitolo 1

Sistemi di numerazione e codici. Capitolo 1 Sistemi di numerazione e codici Capitolo 1 Generalità Sistema di numerazione n Insieme di simboli (cifre) e regole stringa di cifre valore numerico codici posizionali (il valore dipende dalla posizione

Dettagli

SCOMPOSIZIONE IN FATTORI PRIMI:

SCOMPOSIZIONE IN FATTORI PRIMI: SCOMPOSIZIONE IN FATTORI PRIMI: 2 3 5 7 11 13 17 19 23 29 31 37 41 43 47 53 59 61 67 71 73 79 83 89 97 101 103 107 109 113 127 131 137 139 149 151 157 163 167 173 179 181 191 193 197 199 211 223 227 229

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

Codifica binaria dell informazione

Codifica binaria dell informazione Codifica binaria dell informazione Marco D. Santambrogio marco.santambrogio@polimi.it Ver. aggiornata al 13 Agosto 2014 Un obiettivo per domarli tutti 2 Obiettivi Rappresentazione dell informazione Da

Dettagli

Informatica. Mario Pavone - Dept. Mathematics & Computer Science - University of Catania. Trasferimento. Ambiente esterno.

Informatica. Mario Pavone - Dept. Mathematics & Computer Science - University of Catania. Trasferimento. Ambiente esterno. Trasferimento Ambiente esterno Controllo Informatica Mario Pavone - Dept. Mathematics & Computer Science - University of Catania mpavone@dmi.unict.it Cos è l Informatica La scienza della rappresentazione

Dettagli

Insiemistica. Capitolo 1. Prerequisiti. Obiettivi. Gli insiemi numerici di base Divisibilità e fattorizzazione nei numeri interi

Insiemistica. Capitolo 1. Prerequisiti. Obiettivi. Gli insiemi numerici di base Divisibilità e fattorizzazione nei numeri interi Capitolo 1 Insiemistica Prerequisiti Gli insiemi numerici di base Divisibilità e fattorizzazione nei numeri interi Obiettivi Sapere utilizzare opportunamente le diverse rappresentazioni insiemistiche Sapere

Dettagli

Calcolo numerico e programmazione Rappresentazione dei numeri

Calcolo numerico e programmazione Rappresentazione dei numeri Calcolo numerico e programmazione Rappresentazione dei numeri Tullio Facchinetti 16 marzo 2012 10:54 http://robot.unipv.it/toolleeo Rappresentazione dei numeri nei calcolatori

Dettagli

CONVERSIONE BINARIO DECIMALE NB: Convertire in decimale il numero binario N = N =

CONVERSIONE BINARIO DECIMALE NB: Convertire in decimale il numero binario N = N = NOTAZIONE BINARIA, OTTALE, ESADECIMALE CODIFICA DI NUMERI INTERI RELATIVI 1 CONVERSIONE BINARIO DECIMALE Convertire in decimale il numero binario N = 101011.1011 2 N = 1 2 5 + 0 2 4 + 1 2 3 + 0 2 2 + 1

Dettagli

a + 2b + c 3d = 0, a + c d = 0 c d

a + 2b + c 3d = 0, a + c d = 0 c d SPAZI VETTORIALI 1. Esercizi Esercizio 1. Stabilire quali dei seguenti sottoinsiemi sono sottospazi: V 1 = {(x, y, z) R 3 /x = y = z} V = {(x, y, z) R 3 /x = 4} V 3 = {(x, y, z) R 3 /z = x } V 4 = {(x,

Dettagli

TEOREMA DEL RESTO E REGOLA DI RUFFINI

TEOREMA DEL RESTO E REGOLA DI RUFFINI TEOREMA DEL RESTO E REGOLA DI RUFFINI ALCUNI TEOREMI IMPORTANTI Prendiamo una divisione intera tra numeri: 6 : 3 = 2. Il resto di questa divisione è 0, e questo significa che moltiplicando il quoziente

Dettagli

Codifica dei Numeri. Informatica ICA (LC) 12 Novembre 2015 Giacomo Boracchi

Codifica dei Numeri. Informatica ICA (LC) 12 Novembre 2015 Giacomo Boracchi Codifica dei Numeri Informatica ICA (LC) 12 Novembre 2015 Giacomo Boracchi giacomo.boracchi@polimi.it Rappresentazione dei Numeri Codifica dei Numeri in Base 10 Le cifre che abbiamo a disposizione sono

Dettagli

Appunti di informatica. Lezione 7 anno accademico Mario Verdicchio

Appunti di informatica. Lezione 7 anno accademico Mario Verdicchio Appunti di informatica Lezione 7 anno accademico 2016-2017 Mario Verdicchio L algoritmo di Euclide per l MCD Dati due numeri A e B, per trovare il loro MCD procedere nel seguente modo: 1. dividere il maggiore

Dettagli

Congruenze. Alberto Abbondandolo Forte dei Marmi, 17 Novembre 2006

Congruenze. Alberto Abbondandolo Forte dei Marmi, 17 Novembre 2006 Congruenze Alberto Abbondandolo Forte dei Marmi, 17 Novembre 2006 1 Il resto nella divisione tra interi Consideriamo i numeri naturali 0, 1, 2, 3,... ed effettuiamone la divisione per 3, indicando il resto:

Dettagli

Fondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012

Fondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012 Fondamenti di Informatica - 1 Prof. B.Buttarazzi A.A. 2011/2012 Sommario I sistemi di numerazione Il sistema binario Altri sistemi di numerazione Algoritmi di conversione Esercizi 07/03/2012 2 Sistemi

Dettagli

Rappresentazione dei dati in memoria

Rappresentazione dei dati in memoria Rappresentazione dei dati in memoria La memoria Una memoria deve essere un insieme di oggetti a più stati. Questi oggetti devono essere tali che: le dimensioni siano limitate il tempo necessario per registrare

Dettagli

Rappresentazione dell informazione

Rappresentazione dell informazione Rappresentazione dell informazione Problema che coinvolge aspetti filosofici Interessa soprattutto distinguere informazioni diverse Con un solo simbolo è impossibile Pertanto l insieme minimo è costituito

Dettagli

Lezione 3 - Teoria dei Numeri

Lezione 3 - Teoria dei Numeri Lezione 3 - Teoria dei Numeri Problema 1 Trovare il più piccolo multiplo di 15 formato dalle sole cifre 0 e 8 (in base 10). Il numero cercato dev'essere divisibile per 3 e per 5 quindi l'ultima cifra deve

Dettagli

Conversione di base. Conversione decimale binario. Si calcolano i resti delle divisioni per due

Conversione di base. Conversione decimale binario. Si calcolano i resti delle divisioni per due Conversione di base Dato N>0 intero convertirlo in base b dividiamo N per b, otteniamo un quoto Q 0 ed un resto R 0 dividiamo Q 0 per b, otteniamo un quoto Q 1 ed un resto R 1 ripetiamo finché Q n < b

Dettagli

COME CALCOLARE LA COMBINAZIONE DI MINIMO COSTO DEI FATTORI

COME CALCOLARE LA COMBINAZIONE DI MINIMO COSTO DEI FATTORI COME CALCOLARE LA COMBINAZIONE DI MINIMO COSTO DEI FATTORI In questa Appendice, mostreremo come un impresa possa individuare la sua combinazione di minimo costo dei fattori produttivi attraverso il calcolo

Dettagli

Appunti su Indipendenza Lineare di Vettori

Appunti su Indipendenza Lineare di Vettori Appunti su Indipendenza Lineare di Vettori Claudia Fassino a.a. Queste dispense, relative a una parte del corso di Matematica Computazionale (Laurea in Informatica), rappresentano solo un aiuto per lo

Dettagli

Primo modulo: Aritmetica

Primo modulo: Aritmetica Primo modulo: Aritmetica Obiettivi 1. ordinamento e confronto di numeri;. riconoscere la rappresentazione di un numero in base diversa dalla base 10; 3. conoscere differenza tra numeri razionali e irrazionali;

Dettagli

La Rappresentazione Dell Informazione

La Rappresentazione Dell Informazione La Rappresentazione Dell Informazione Parte III I codici I Codici Un codice è una funzione che associa ad una sequenza di simboli un significato Un codice serve a: Permettere l elaborazione e la memorizzazione

Dettagli

Somma di numeri binari

Somma di numeri binari Fondamenti di Informatica: Codifica Binaria dell Informazione 1 Somma di numeri binari 0 + 0 = 0 0 + 1 = 1 1 + 0 = 1 1 + 1 = 10 Esempio: 10011011 + 00101011 = 11000110 in base e una base Fondamenti di

Dettagli

Rappresentazione e Codifica dell Informazione

Rappresentazione e Codifica dell Informazione Rappresentazione e Codifica dell Informazione Capitolo 1 Chianese, Moscato, Picariello, Alla scoperta dei fondamenti dell informatica un viaggio nel mondo dei BIT, Liguori editore. Sistema di numerazione

Dettagli

= < < < < < Matematica 1

= < < < < < Matematica  1 NUMERI NATURALI N I numeri naturali sono: 0,1,2,3,4,5,6,7,8,9,10,11,12,13,... L insieme dei numeri naturali è indicato con la lettera. Si ha cioè: N= 0,1,2,3,4,5,6,7,.... L insieme dei naturali privato

Dettagli

Note sull implementazione in virgola fissa di filtri numerici

Note sull implementazione in virgola fissa di filtri numerici Note sull implementazione in virgola fissa di filtri numerici 4 settembre 2006 1 Introduction Nonostante al giorno d oggi i processori con aritmetica in virgola mobili siano molto comuni, esistono contesti

Dettagli

LA CODIFICA DELL INFORMAZIONE. Introduzione ai sistemi informatici D. Sciuto, G. Buonanno, L. Mari, McGraw-Hill Cap.2

LA CODIFICA DELL INFORMAZIONE. Introduzione ai sistemi informatici D. Sciuto, G. Buonanno, L. Mari, McGraw-Hill Cap.2 LA CODIFICA DELL INFORMAZIONE Introduzione ai sistemi informatici D. Sciuto, G. Buonanno, L. Mari, McGraw-Hill Cap.2 Codifica dati e istruzioni Per scrivere un programma è necessario rappresentare istruzioni

Dettagli

Strutture algebriche. Leggi di composizione. Leggi di composizione. Gruppi Insiemi di numeri Polinomi

Strutture algebriche. Leggi di composizione. Leggi di composizione. Gruppi Insiemi di numeri Polinomi Introduzione S S S S Le strutture algebriche sono date da insiemi con leggi di composizione binarie (operazioni) ed assiomi (proprietà) Una legge di composizione binaria è una funzione : I J K, una legge

Dettagli

A lezione sono stati presentati i seguenti passi per risolvere un problema:

A lezione sono stati presentati i seguenti passi per risolvere un problema: Calcolo delle radici di un polinomio Problema: Dati i coefficienti a,b,c di un polinomio di 2 grado della forma: ax^2 + bx + c = 0, calcolare le radici. A lezione sono stati presentati i seguenti passi

Dettagli

Rappresentazione in complemento a 2: caratteristiche generali

Rappresentazione in complemento a 2: caratteristiche generali Rappresentazione in complemento a 2: caratteristiche generali La rappresentazione non è completamente posizionale, ma in parte sì. Guardando il bit più significativo (MSB) si capisce se il numero è positivo

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

Soluzioni Esercizi su rappresentazione binaria dell informazione

Soluzioni Esercizi su rappresentazione binaria dell informazione Soluzioni Esercizi su rappresentazione binaria dell informazione Mauro Bianco 1 Numeri naturali Esercizi: 1. Si calcoli 323 4 + 102 4. Partendo da destra a sinistra 2 4 + 3 4 5 10 4 + 1 10 11 4. La cifra

Dettagli

04 - Numeri Complessi

04 - Numeri Complessi Università degli Studi di Palermo Scuola Politecnica Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 04 - Numeri Complessi Anno Accademico 2015/2016 M. Tumminello,

Dettagli

19/09/14. Il codice ASCII. Altri codici importanti. Extended ASCII. Tabella del codice ASCII a 7 bit. Prof. Daniele Gorla

19/09/14. Il codice ASCII. Altri codici importanti. Extended ASCII. Tabella del codice ASCII a 7 bit. Prof. Daniele Gorla Il codice ASCII ASCII è un acronimo per American Standard Code for Information Interchange Nato nell IBM nel 1961, diventa standard ISO (International Organization for Standardization) nel 1968. Codifica

Dettagli

Corso di Architettura degli Elaboratori

Corso di Architettura degli Elaboratori Corso di Architettura degli Elaboratori Codifica dell'informazione: Numeri Binari (lucidi originali della Prof.ssa Zacchi e del Prof. Balossino, rivisti dal Prof. Baldoni) 1 Codifica dell'informazione?

Dettagli

Precorso di Matematica

Precorso di Matematica UNIVERSITÀ DEGLI STUDI ROMA TRE FACOLTA DI ARCHITETTURA Precorso di Matematica Anna Scaramuzza Anno Accademico 2005-2006 4-10 Ottobre 2005 INDICE 1. ALGEBRA................................. 3 1.1 Equazioni

Dettagli

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame

Dettagli

Esempio B2.1: dire il grado del monomio seguente rispetto ad ogni lettera e il suo grado complessivo:

Esempio B2.1: dire il grado del monomio seguente rispetto ad ogni lettera e il suo grado complessivo: B. Polinomi B.1 Cos è un polinomio Un POLINOMIO è la somma di due o più monomi. Se ha due termini, come a+b è detto binomio Se ha tre termini, come a-3b+cx è detto trinomio, eccetera GRADO DI UN POLINOMIO

Dettagli

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16 Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana - 015/16 Esercizio 1 Per quali valori n Z \ {0} l espressione è un numero intero positivo? (n + 5)(n + 6) 6n Soluzione. Il problema

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita

Dettagli

Fondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012

Fondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012 Fondamenti di Informatica - 1 Prof. B.Buttarazzi A.A. 2011/2012 Sommario Rappresentazione dei numeri naturali (N) Rappresentazione dei numeri interi (Z) Modulo e segno In complemento a 2 Operazioni aritmetiche

Dettagli

Sistemi di numerazione

Sistemi di numerazione Sistemi di numerazione Sistema di numerazione decimale Sapete già che il problema fondamentale della numerazione consiste nel rappresentare con un limitato numero di segni particolari, detti cifre, tutti

Dettagli

Capitolo 5 La trasmissione dell informazione

Capitolo 5 La trasmissione dell informazione Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione

Dettagli

La divisione di numeri naturali: esercizi svolti

La divisione di numeri naturali: esercizi svolti La divisione di numeri naturali: esercizi svolti Come abbiamo fatto per la sottrazione, ci chiediamo adesso se, effettuata una operazione di moltiplicazione, sia possibile definire (trovare) una operazione

Dettagli

Riassunto Nell'esercitazione di oggi e' stata introdotta la codifica binaria naturale, intera e razionale in virgola fissa. Il materiale teorico

Riassunto Nell'esercitazione di oggi e' stata introdotta la codifica binaria naturale, intera e razionale in virgola fissa. Il materiale teorico Riassunto Nell'esercitazione di oggi e' stata introdotta la codifica binaria naturale, intera e razionale in virgola fissa. Il materiale teorico utilizzato e' disponibile nella Dispensa sulla codifica

Dettagli

Sistemi di numerazione

Sistemi di numerazione Sistemi di numerazione Introduzione Un sistema di numerazione è un sistema utilizzato per esprimere i numeri e possibilmente alcune operazioni che si possono effettuare su di essi. Storicamente i sistemi

Dettagli

INTEGRALI INDEFINITI e DEFINITI Esercizi risolti

INTEGRALI INDEFINITI e DEFINITI Esercizi risolti INTEGRALI INDEFINITI e DEFINITI Esercizi risolti E data la funzione f( = (a Provare che la funzione F ( = + arcsin è una primitiva di f( sull intervallo (, (b Provare che la funzione G( = + arcsin π è

Dettagli

1 Esercizio - caso particolare di ottimalità

1 Esercizio - caso particolare di ottimalità Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto

Dettagli

Corso di Analisi Numerica

Corso di Analisi Numerica Corso di Laurea in Ingegneria Informatica Corso di 3 - PROBLEMI DI INTERPOLAZIONE Lucio Demeio Dipartimento di Scienze Matematiche 1 Interpolazione: Polinomio di Lagrange 2 3 Introduzione Problemi di interpolazione

Dettagli

Analogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale

Analogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale Analogico vs. Digitale LEZIONE II La codifica binaria Analogico Segnale che può assumere infiniti valori con continuità Digitale Segnale che può assumere solo valori discreti Analogico vs digitale Il computer

Dettagli

Un monomio è in forma normale se è il prodotto di un solo fattore numerico e di fattori letterali con basi diverse. Tutto quanto sarà detto di

Un monomio è in forma normale se è il prodotto di un solo fattore numerico e di fattori letterali con basi diverse. Tutto quanto sarà detto di DEFINIZIONE Espressione algebrica costituita dal prodotto tra una parte numerica (coefficiente) e una o più variabili e/o costanti (parte letterale). Variabili e costanti possono comparire elevate a potenza

Dettagli

APPUNTI DI INFORMATICA

APPUNTI DI INFORMATICA APPUNTI DI INFORMATICA Per il biennio di liceo scientifico scienze applicate Sommario Il calcolo binario... 2 Numerazione Decimale... 2 Numerazione Binaria... 2 Conversione Binario -> Decimale... 2 Conversione

Dettagli

Un ripasso di aritmetica: Conversione dalla base 10 alla base 2

Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Dato un numero N rappresentato in base dieci, la sua rappresentazione in base due sarà del tipo: c m c m-1... c 1 c 0 (le c i sono cifre

Dettagli

Programma del corso. Introduzione Rappresentazione delle Informazioni Calcolo proposizionale Architettura del calcolatore Reti di calcolatori

Programma del corso. Introduzione Rappresentazione delle Informazioni Calcolo proposizionale Architettura del calcolatore Reti di calcolatori Programma del corso Introduzione Rappresentazione delle Informazioni Calcolo proposizionale Architettura del calcolatore Reti di calcolatori Codifica dell informazione Il calcolatore memorizza ed elabora

Dettagli

FUNZIONI BOOLEANE. Vero Falso

FUNZIONI BOOLEANE. Vero Falso FUNZIONI BOOLEANE Le funzioni booleane prendono il nome da Boole, un matematico che introdusse un formalismo che opera su variabili (dette variabili booleane o variabili logiche o asserzioni) che possono

Dettagli

Correzione primo compitino, testo B

Correzione primo compitino, testo B Correzione primo compitino, testo B gennaio 20 Parte Esercizio Facciamo riferimento alle pagine 22 e 2 del libro di testo Quando si ha a che fare con la moltiplicazione o la divisione di misure bisogna

Dettagli

CORSO ZERO DI MATEMATICA

CORSO ZERO DI MATEMATICA UNIVERSITÀ DEGLI STUDI DI PALERMO FACOLTÀ DI ARCHITETTURA CORSO ZERO DI MATEMATICA RADICALI Dr. Erasmo Modica erasmo@galois.it LE RADICI Abbiamo visto che l insieme dei numeri reali è costituito da tutti

Dettagli

Un polinomio è un espressione algebrica data dalla somma di più monomi.

Un polinomio è un espressione algebrica data dalla somma di più monomi. 1 I polinomi 1.1 Terminologia sui polinomi Un polinomio è un espressione algebrica data dalla somma di più monomi. I termini di un polinomio sono i monomi che compaiono come addendi nel polinomio. Il termine

Dettagli

Introduzione alla codifica entropica

Introduzione alla codifica entropica Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta

Dettagli

Numeri interi (+/-) Alfabeto binario. Modulo e segno

Numeri interi (+/-) Alfabeto binario. Modulo e segno Numeri interi (+/-) Alfabeto binario il segno è rappresentato da 0 (+) oppure 1 (-) è indispensabile indicare il numero k di bit utilizzati Modulo e segno 1 bit di segno (0 positivo, 1 negativo) k 1 bit

Dettagli

Codici binari decimali

Codici binari decimali Codici binari decimali Si usano per rappresentare le dieci cifre decimali in binario dato che 2 3 < 10 < di 2 4 occorrono almeno 4 bits Binario Decimale BCD Eccesso-3 Biquinary 1 di 10 0 0 0000 0011 0100001

Dettagli

Dipendenza e indipendenza lineare (senza il concetto di rango)

Dipendenza e indipendenza lineare (senza il concetto di rango) CAPITOLO 5 Dipendenza e indipendenza lineare (senza il concetto di rango) Esercizio 5.1. Scrivere un vettore w R 3 linearmente dipendente dal vettore v ( 1, 9, 0). Esercizio 5.2. Stabilire se i vettori

Dettagli