Cap.1. GENERALITÀ SUI PROCESSI STOCASTICI
|
|
- Isabella Giovanna Clemente
- 6 anni fa
- Visualizzazioni
Transcript
1 Cap.1. GENERALITÀ SUI PROCESSI STOCASTICI 1.1. SEGNALI ALEATORI E LORO SORGENTI Si è a volte fatto riferimento ai segnali quali veicoli di informazione: in proposito occorre tuttavia precisare che si tratta di segnali aleatori, in quanto quelli determinati, ossia già noti nel loro intero andamento temporale, non sono ovviamente portatori di alcuna informazione. Nei problemi di telecomunicazioni si incontrano sovente dei segnali la cui evoluzione nel tempo sfugge a caratterizzazioni di tipo deterministico, quali quelle richiamate in precedenza; vengono allora considerati di tipo casuale e trattati in forma statistica. È necessario prendere in considerazione tutti i possibili segnali con probabilità non nulla di essere osservati, poiché in generale ciascuno di essi considerato isolatamente non è sufficientemente rappresentativo. Allo scopo si vuole in questo paragrafo introdurre alcuni cenni sulle sorgenti dei flussi di informazione, anche per la migliore comprensione, in senso stocastico, tanto dei contenuti informativi, quanto delle caratteristiche dei segnali aleatori, oggetto della analisi condotta nei paragrafi successivi. In primo luogo, la emissione elementare di una informazione può essere schematizzata con la scelta del valore di una variabile aleatoria reale, nel seguito indicata con la notazione v.a.. La sorgente è denominata analogica se la v.a., Z, è continua, ossia se la sua generica determinazione, z, può assumere uno qualsiasi dei valori non numerabili in un intervallo noto, di norma finito; è invece denominata numerica, se la v.a., Z q, è discreta, ossia se la sua determinazione può assumere uno qualsiasi dei simboli che costituiscono un insieme, {z q } con q = 1, 2,.., M, discreto, numerabile e finito. Con riferimento al caso numerico, la considerata emissione elementare è riconducibile alla scelta di un simbolo, z q, tra gli M possibili diversi elementi che nel loro complesso formano un alfabeto M-nario. A tale evento si associa la quantità di informazione: [1.1] I(z q ) ˆ= log 2 1 P(z q ), dove P(z q ) è la probabilità di z q. La occorrenza di una delle due cifre binarie in condizione di equiprobabilità [P(0)=P(1)=!] corrisponde dunque alla unità di quantità di informazione, denominata bit. Sempre che i simboli siano equiprobabili, ossia si abbia: [1.2] P(z q ) = 1 M, e che nella M = 2 b sia b intero, la quantità di informazione, identica, di ciascun simbolo coincide con il numero b delle cifre binarie ad esso associabili. Considerando l evoluzione di una sorgente, si passa al flusso di informazione. Nel caso analogico si ha molto spesso un flusso continuo nel tempo: volta per volta, si è allora di fronte alla generazione di una funzione campione, x(t), che costituisce la realizzazione di un processo stocastico continuo reale, indicato con X(t), comprendente tutte le realizzazioni possibili; il processo per ogni generico tempo t di saggiatura si riduce alla
2 2 v.a. continua X t = X(t), come quella già precedentemente introdotta. Nella figura 1.1 sono mostrate alcune realizzazioni di un processo continuo, ponendo in evidenza le determinazioni della v.a. X t, nell istante t, così come quelle della v.a. X t+!, nell istante t+!. x(t) t x(t) t x(t) t t +! Fig Esempio di realizzazioni di un processo continuo. Si ha anche il caso di flusso discreto di informazione analogica, contemplando ad esempio una sorgente che, volta per volta, genera una sequenza, z(n), che costituisce la realizzazione di un processo stocastico discreto reale, indicato con Z(n), comprendente tutte le realizzazioni possibili; il processo per ogni valore di saggiatura k della variabile intera n si riduce alla v.a. continua Z k, come quella già precedentemente introdotta; ossia il processo è una sequenza di v.a. continue. Il flusso di informazione di una sorgente numerica corrisponde sempre a un processo discreto reale, Z q (n), comprendente come realizzazioni tutti i flussi numerici volta per volta generabili, z q (n); ma, a differenza del caso immediatamente precedente, si ha un processo stocastico discreto a valori discreti, dato che per ogni generico valore intero di saggiatura, k, esso si riduce a una v.a. discreta: Z qk, che come già esposto ha per determinazione uno degli M possibili simboli dell'insieme {z q }. Il tipo di processo considerato è perciò una sequenza di v.a. discrete. I segnali aleatori che veicolano la informazione nei sistemi di telecomunicazione si ottengono dalle sorgenti a valle di opportuni procedimenti di conversione della natura fisica dei flussi di informazione: da quella generica con cui esso nasce, alla natura elettrica. Tali trattamenti sono attuati da trasduttori, apparati che non interessano la trasmissione e pertanto verranno in seguito ignorati, ritenendoli interni alle sorgenti. Se la sorgente è analogica, la forma emessa in modo casuale, ossia un segnale analogico, ha andamento aleatorio nel tempo analogo a quello del flusso di informazione considerato: di conseguenza anch'esso è la realizzazione di un processo continuo. Se invece la sorgente è numerica, si ha in corrispondenza un segnale numerico, con vario t
3 3 andamento aleatorio, ma comunque sempre associato al flusso numerico di informazione considerato: tralasciando il caso astratto del segnale campionato numerico, nella pratica sia ha pertanto ancora la realizzazione di un processo continuo, seppure dipendente da un processo discreto a valori discreti. In definitiva, tutti i possibili segnali fisici aventi probabilità non nulla di transitare in un sistema di trasmissione, ma sempre generabili da sorgenti dello stesso tipo, nel loro insieme costituiscono un processo stocastico continuo reale, di cui la singola forma d'onda, x(t), è la realizzazione CARATTERIZZAZIONE DEI PROCESSI CONTINUI In un processo continuo reale X(t), ad ogni generico istante di saggiatura, t, corrisponde una v.a. continua, X t =X(t), e i valori istantanei, x t = x(t), di tutte le possibili realizzazioni sono quelli che la v.a. X t può assumere. La distribuzione dei valori x t è caratterizzata tramite la funzione: p(x t ; t), denominata densità di distribuzione o anche densità di probabilità all'istante t; il valore di p(x t ; t) dx t esprime infatti la probabilità che la X t assuma al tempo t un valore compreso tra x t e x t +dx t. Più in generale, occorre la conoscenza della interdipendenza statistica di una ennupla di v.a., X 1, X 2,.., X n, ottenute in corrispondenza degli istanti di saggiatura t 1, t 2,.., t n, tutti arbitrari. Si ricorre allora alla densità di distribuzione congiunta o anche densità di probabilità congiunta di ordine n: p n = p n (x 1, x 2,.., x n ; t 1, t 2,.., t n ) ; ad esempio p 2 dx 1 dx 2 rappresenta la probabilità che ai tempi t 1 e t 2 i valori assunti da X 1 e X 2 siano compresi rispettivamente tra x 1 e x 1 + dx 1 e tra x 2 e x 2 + dx 2. La conoscenza della funzione p n è sufficiente affinché siano note tutte le funzioni di ordine inferiore; si ha infatti: [1.3] p n-1 = p n dx n!. Generalmente la v.a. X n al tempo t n è condizionata dalla eventuale conoscenza delle v.a. estratte in corrispondenza dei precedenti istanti t n-1,.., t 2, t 1 ; si definisce quindi la densità di distribuzione condizionata o anche densità di probabilità condizionata di ordine uno e con n-1 condizionamenti: p n-1 = p n-1 (x n ; t n x n-1,.., x 2, x 1 ; t n-1,.., t 2, t 1 ) ; il valore di p n-1 dx n esprime la probabilità che al tempo t n la X n assuma un valore compreso tra x n e x n + dx n, sotto il condizionamento dei valori x n-1,.., x 2, x 1. Si ha poi: [1.4] p n = p n-1 p n-1 (x n-1,.., x 2, x 1 ; t n-1,.., t 2, t 1 ),
4 4 e reiterando la stessa [1.4]: [1.5] p n = p n-1 p n-2 p n-3...p 1 p(x 1 ; t 1 ). Per caratterizzare completamente un processo non è sempre necessaria la conoscenza delle densità di probabilità di ordine comunque elevato, come nel seguito mostrato. Un caso particolarmente semplice è quello in cui si verifica la ipotesi di completa indipendenza statistica tra tutte le v.a. X t, in corrispondenza di istanti di saggiatura diversi: allora tutte le funzioni condizionate si riducono alla densità di distribuzione del primo ordine e dalla [1.5] si ottiene che la densità di probabilità congiunta di ordine n si esprime semplicemente come il prodotto di n funzioni del primo ordine. Per particolari processi stocastici, detti processi di Markoff del primo ordine, la dipendenza statistica tra diversi valori di X t si esaurisce con il valore contiguo, ossia vale per le funzioni condizionate di qualsiasi ordine la proprietà: [1.6] p k-1 = p 1 (x k ; t k x k-1 ;t k-1 ) ; dalla [1.5] risulta allora: [1.7] p n = p 1 (x n ; t n x n-1, t n-1 )"""p 1 (x 2 ; t 2 x 1 ; t 1 ) p(x 1 ; t 1 ). Ne segue che i processi del tipo considerato sono completamente descritti dalla densità di probabilità di secondo ordine (vedi [1.3]). Nei processi di Markoff di ordine n la descrizione è completa se si conosce la densità di probabilità di ordine n +1. Pur arrestando la conoscenza alla densità di probabilità del secondo ordine, è possibile il calcolo di alcune grandezze di un generico processo, atte a rappresentare sinteticamente almeno le sue più importanti caratteristiche. Nel seguito si rimarrà pertanto entro tale limitazione. Si adotti per l operatore di media statistica la notazione: E{ F n }=! F n (v 1, v 2,.., v n )p n (v 1, v 2,.., v n )dv 1 dv 2..dv n, n dove F n è una funzione delle v.a. V 1,V 2,..,V n e l integrale è ennuplo. Al generico istante di saggiatura t 1, stante la v.a. X 1 = X(t 1 ), si definiscono il valore medio statistico del processo (o speranza matematica), la potenza media statistica del processo e la varianza del processo, rispettivamente mediante le: [1.8] E{x 1 } =! x 1 p(x 1 ;t 1 ˆ= #(t 1 ), [1.9] E{ x } =! x 1 p(x 1 ;t 1 ˆ= P(t 1 ), [1.10] E{ x 1 - E{x 1 } 2 } =! x 1 -E(x 1 ) 2 p(x 1 ;t 1 ˆ= $ 2 (t 1 ),
5 5 che in generale risultano dipendenti dall'istante di saggiatura t 1. si ha poi la proprietà: [1.11] $ 2 (t 1 ) = P(t 1 ) - #(t 1 ) 2. In corrispondenza della coppia di generici istanti di saggiatura t 1 e t 2 e tramite la intercorrelazione statistica tra le v.a. X 1 = X(t 1 ) e X 2 = X(t 2 ), espressa dalla densità di probabilità di secondo ordine, si definiscono la funzione di autocorrelazione del processo e la funzione di autocovarianza del processo, rispettivamente mediante le relazioni (1) : [1.12] E x 1 x 2! { } = "" x x! 1 2p 2 (x 1, x 2 ;t 1,t 2 dx 2 ˆ= R(t 1,t 2 ), { } = x 1-E{x 1 } [1.13] E!" x 1 -E{ x 1 }# $ x 2 -E { x } %!" 2 # $ K(t 1,t 2 ); vale inoltre la proprietà: [1.14] K(t 1,t 2 ) = R(t 1,t 2 ) - #( t 1 ) # * (t 2 ), "" ( )( x 2 -E{x 2 })! p 2 (x 1,x 2 ;t 1,t 2 dx 2 ˆ= ed è immediato constatare che per t 2 = t 1 si hanno le relazioni: [1.15] R(t 1,t 1 ) = P(t 1 ), K(t 1, t 1 ) = $ 2 (t 1 ), e quindi la [1.14] coincide in tale caso con la [1.11]. Si noti che tutte le grandezze introdotte sono caratteristiche del processo, ma sono in generale funzioni di una o di entrambe le variabili temporali indipendenti di saggiatura, t 1 e t 2. È rilevante inoltre osservare che, grazie alle proprietà [1.14] e [1.15], tutte le grandezze considerate risultano note o ricavabili a partire dalla sola conoscenza delle due grandezze: #(t 1 ), R(t 1,t 2 ), che dunque rivestono un ruolo fondamentale per la caratterizzazione sintetica, limitata al secondo ordine, del processo PROCESSI CONTINUI STAZIONARI (1) La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna successivamente utile nella estensione ai processi complessi.
6 6 Nella realtà operativa della trasmissione i segnali, utili o indesiderati che siano, sono realizzazioni di processi stocastici. Se si considerano osservazioni molto prolungate le caratteristiche dei segnali nel dominio statistico (in particolare il valore medio e la funzione di autocorrelazione) non risultano invariate nel tempo: basti fare riferimento alla durata finita delle comunicazioni, nonché alla possibilità che su uno stesso collegamento transitino in tempi anche immediatamente successivi i segnali, in teoria tutti di energia finita, generati da sorgenti assai diverse (ad esempio sorgente vocale o di dati in banda fonica); d'altra parte il progetto e l'esercizio in opera degli apparati e dei mezzi che costituiscono i sistemi di trasmissione può essere basato sulle prestazioni di larga media osservabili in numerosi intervalli di breve durata. Ciò giustifica la prassi comune di estrapolare, su tutto l'asse dei tempi, le caratteristiche dei segnali, quali esse risultano da valutazioni statistiche compiute su intervalli temporali limitati, purché di durata sufficiente; in altri termini è spesso accettabile la ipotesi di invarianza nel tempo della natura aleatoria dei segnali in transito. Concludendo, è lecito concentrare l'attenzione su quella particolare categoria di processi, denominata dei processi stocastici continui stazionari, che a prescindere dalle caratteristiche che verranno precisate in seguito, hanno come realizzazioni segnali aleatori di potenza. Nei processi continui stazionari tutte le funzioni di densità di probabilità risultano invarianti rispetto a una traslazione temporale; in particolare, quindi, godono di tale proprietà anche le grandezze sintetiche poco sopra introdotte. I processi stocastici più interessanti per le telecomunicazioni, in quanto costituiscono una classe che comprende i precedenti, ma è molto più ampia, sono quelli debolmente stazionari o stazionari in senso lato, per i quali la proprietà considerata vale in riferimento alle funzioni del primo e secondo ordine; ossia ponendo t 1 = t +! e t 2 = t con! qualsiasi, si ottiene una densità di probabilità del generico valore istantaneo x 1 = x(t +!) indipendente dal tempo: [1.16] p(x 1 ; t 1 ) = p(x 2 ; t 2 ) = p(x 1 ) = p(x 2 ), e una densità di probabilità congiunta della coppia di valori istantanei x 1 = x(t +!) e x 2 = x(t) che dipende da! : [1.17] p 2 (x 1, x 2 ; t 1, t 2 ) = p 2 (x 1, x 2 ;!). Nell ambito della prassi qui seguita, di limitare la caratterizzazione dei processi al secondo ordine, non è dunque apprezzabile la differenza tra la stazionarietà effettiva e quella in senso lato: pertanto nel seguito tale distinzione verrà trascurata, ma il lettore ricordi che quanto ricavato per i processi della classe più ristretta è valido per quelli stazionari in senso lato. In un processo stazionario il valore medio statistico, la potenza e la varianza risultano delle costanti; si ottiene rispettivamente: [1.18] E{x(t)} =! x 1 p(x 1 ˆ= # x, [1.19] E{ x(t) 2 2 } =! x 1 p(x 1 ˆ= P x,
7 7 [1.20] E{ x(t) - E{x(t)} 2 } =! x 1 -! 2 p(x 1 ˆ=! 2 x. Inoltre, le funzioni di autocorrelazione e di autocovarianza dipendono dalla differenza! tra i due istanti di saggiatura e non dai loro valori in assoluto, ossia si ha (1) : [1.21] E{ x(t+!)x " (t)} = "" x 1x! 2 p 2 (x 1,x 2 ;! dx 2 ˆ= R xx (!), { { } { } } = "" (x 1-!)(x 2 -!)! p 2 (x 1,x 2 ;" dx 2 ˆ= % [1.22] E!" x(t+! )-E x(t+! ) # $!" x(t)-e x(t) # $ K xx (!), dove sia R xx (!) che K xx (!) sono funzioni hermitiane: [1.23] R xx (!) = R! xx (-"), K xx (!) = K! xx (-") ; valgono poi le proprietà: [1.24] R xx (!) = K xx (!) + # x 2, R xx (!) % R xx (0) = P x, K xx (!) %! x 2, [1.25] R xx (0) = P x =! x 2 + # x 2 = K xx (0) + # x 2. Sempre nell ipotesi di stazionarietà si dimostrano le relazioni: [1.26] # x = E{x}, P x = E{P xx }, R xx (!) = E{R xx (!)}, K xx (!) = E{K xx (!)}, dove x, P xx, R xx (!) e K xx (!) sono le rispettive grandezze relative alla generica singola realizzazione del processo, ossia il valore medio temporale, la potenza media temporale, la funzione di autocorrelazione temporale e la funzione di autocovarianza temporale. È rilevante osservare che, in virtù delle [1.24] e [1.25], tutte le grandezze considerate risultano note o ricavabili a partire dalla sola conoscenza del valore medio statistico e della funzione di autocorrelazione: # x, R xx (!), che dunque rivestono un ruolo fondamentale per la caratterizzazione sintetica di un processo stazionario. Mantenendo la ipotesi di stazionarietà, è possibile la definizione della densità spettrale di potenza o anche spettro di potenza del processo, tramite la relazione di Wiener- Khintchine: (1) La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna successivamente utile nella estensione ai processi complessi.
8 8 [1.27] P x ( f ) ˆ= F{R xx (!)} ; si ha la espressione: 1 [1.28] P x (f) = lim T!" T E X T(f) 2 { }, dove con X T (f) si è indicata la trasformata di Fourier della generica realizzazione troncata nell intervallo finito di osservazione T. Si noti che la funzione P x ( f ) è reale per definizione, essendo R xx (!) hermitiana, ed è non negativa in virtù della [1.28]; essa diviene una funzione pari nel caso, molto frequente, di processo reale. Servendosi delle [1.24] e [1.27] si ricava la espressione: [1.29] P x (f) = F{K xx (!) + # x 2 } = F{K xx (!)}+ # x 2 &(f), che evidenzia la esistenza di una componente spettrale discreta nella origine, legata al quadrato del modulo del valore medio statistico. Calcolando in! = 0 l antitrasformata di Fourier della [1.27] e rammentando la [1.25] si ricava: [1.30] P x =! P x (f)df. Grazie alla relazione di Wiener-Khintchine, per caratterizzare un processo stazionario sono sufficienti il suo valore medio statistico, # x, e la sua densità spettrale di potenza, P x ( f ). A patto di fare riferimento a tale ultima funzione, valgono le considerazioni sviluppate a proposito della estensione spettrale dei segnali determinati: nel caso di processi fisici stazionari è dunque sempre possibile adottare le denominazioni di processi in banda base e di processi in banda traslata, adoperando rispettivamente le condizioni f M >>f m e f M <2f m dove f m e f M sono gli estremi della banda monolatera del processo. Un sottoinsieme particolarmente interessante di processi stazionari è quello dei processi ergodici, per i quali la singola realizzazione, x(t), osservata su tutto l'asse dei tempi, contiene tutte le proprietà statistiche del processo, così che le grandezze medie temporali convergono tutte, con probabilità tendente a uno, alle corrispondenti medie statistiche. Indicati sempre con x, P xx, R xx (!) e K xx (!) rispettivamente il valore medio, la potenza e le funzioni di autocorrelazione e di autocovarianza della generica singola realizzazione del processo, si hanno le relazioni: [1.31] x = # x, P xx = P x, R xx (!) = R xx (!), K xx (!) = K xx (!). La conoscenza dell'intero andamento temporale di una sola realizzazione consente quindi la determinazione delle grandezze sintetiche del processo stazionario ergodico a cui essa appartiene INTERCORRELAZIONE NEI PROCESSI STAZIONARI
9 9 Si consideri una coppia di processi reali continui, X(t) e Y(t), congiuntamente stazionari, ossia per cui entrambe le densità di probabilità del primo ordine siano indipendenti dal tempo (vedi [1.16]) e la densità di probabilità congiunta della coppia di valori istantanei x 1 = x(t +!) e y 2 = y(t) dipenda dalla differenza! = t 1 - t 2 tra gli istanti di saggiatura e non dai loro valori assoluti. Oltre alle grandezze caratteristiche già introdotte per ciascun processo (nel seguito distinte tramite l aggiunta del pedice singolo x o y), in analogia con le [1.21] e [1.22] si definiscono la funzione di intercorrelazione e la funzione di covarianza mutua della coppia di processi (1), che risultano entrambe funzioni di!: [1.32] E{x(t +!) y*(t)} ˆ= R xy (!), [1.33] E{[x(t +!) - # x ][y(t) - # y ]*} ˆ= K xy (!), dove # x e # y sono i valori medi statistici; scambiando tra loro i pedici nelle [1.32] e [1.33], si dimostrano le (con il cambio di variabile z = t +! ):! xy [1.34] R yx (!) =R! xy (-! ), K yx (!) = K (-"). Tra le funzioni sussiste la relazione: [1.35] R xy (!) = K xy (!) + # x! y " ; valgono inoltre le proprietà: [1.36] R xy (!) 2 % R xx (0)R yy (0) = P x P y, [1.37] K xy (!) 2 % K xx (0)K yy (0) =! 2 2 x! y, avendo indicato con P x e P y e con! 2 x e! 2 y rispettivamente le potenze e le varianze dei processi. Definita poi la densità spettrale mutua di potenza dei processi: [1.38] P xy ( f ) ˆ= F{R xy (!)}, si ha la relazione: 1 [1.39] P xy ( f ) =lim T!" T E X (f)y # T T(f) { }, dove X T (f) e Y T (f)sono le trasformate di Fourier delle generiche realizzazioni troncate nell intervallo finito di osservazione T; scambiando tra loro i pedici, si ottiene: (1) La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna successivamente utile nella estensione ai processi complessi.
10 10! [1.40] P xy (f ) = P yx ( f ) = F{R yx (!)}. Dalla [1.39] si nota che la densità spettrale mutua di potenza è diversa da zero solo alle frequenze per cui sono entrambe non nulle le densità spettrali di potenza dei processi X(t) e Y(t) considerati. Si osservi che nel caso di processi congiuntamente stazionari entrambi reali, le funzioni di intercorrelazione e di covarianza sono sempre funzioni reali, mentre la densità spettrale mutua di potenza è in generale una funzione hermitiana della frequenza. Due processi congiuntamente stazionari si dicono incoerenti se la funzione di intercorrelazione è nulla per ogni!, ossia si ha: [1.41] R xy (!) ' 0 ; servendosi della [1.38] si ricava in tal caso che la densità spettrale mutua di potenza si annulla anch essa per ogni frequenza: [1.42] P xy ( f ) ' 0, se: R xy (!) ' 0. Se invece la funzione di covarianza è nulla per ogni!: [1.43] K xy (!) = R xy (!) - # x! y " ' 0, i due processi si denominano incorrelati; sempre dalla [1.38] risulta allora che la densità spettrale mutua di potenza consiste in una sola componente discreta nella origine: [1.44] P xy ( f ) = # x! y " &(f), se: K xy (!) ' 0. Qualora sia nullo il valore in! = 0 della funzione di intercorrelazione, ossia si abbia: [1.45] R xy (0) = E{x(t) y * (t)} = 0, i due processi, nel medesimo generico istante di saggiatura, danno luogo a una coppia di v.a. X(t) e Y(t) ortogonali; risulta in tal caso (vedi [1.40]): [1.46] " P xy (f)df= "!{ P xy (f)} df=0, se: R xy (0) = 0. Due processi continui stazionari statisticamente indipendenti, per cui le densità di probabilità congiunte di vario ordine si riducono ai prodotti delle densità congiunte di ciascun processo preso separatamente: [1.47] p n+m (x 1, x 2,.., x n, y 1, y 2,.., y m ) = p n (x 1, x 2,.., x n ) p m (y 1, y 2,.., y m ), sono sempre incorrelati. Se almeno uno ha valore medio nullo sono anche incoerenti.
11 PROCESSO SOMMA E PROCESSO COMPLESSO Si consideri il processo continuo, A(t), con realizzazioni a(t) = x(t) + y(t) date dalla somma di quelle di due processi reali congiuntamente stazionari, e si applichino le [1.18] e [1.21]. Data la linearità dell'operatore di media statistica, E{ }, il valore medio statistico risulta: [1.48] # a = E{x(t)+y(t)}= E{x(t)}+E{y(t)}= # x +# y. Si ottiene poi la funzione di autocorrelazione: [1.49] R aa (!) = E{[x(t +!) + y(t +!)] [x(t) + y(t)] * } = = E{x(t +!)x*(t)}+ E{y(t +!) y*(t)}+ E{x(t +!)y*(t)}+e{y(t+!)x*(t)}= = R xx (!)+R yy (!)+R xy (!)+R yx (!). Il processo somma considerato è dunque anch'esso stazionario. Grazie alle [1.28] e [1.40] si ha inoltre: [1.50] P a ( f ) = P x ( f ) + P y ( f ) + 2({P xy ( f )}. La incoerenza dei due processi addendi (vedi [1.41] e [1.42]) è allora condizione sufficiente affinché i processi X(t) e Y(t) si sommino in potenza, così come in densità spettrale di potenza: [1.51] P a = P x + P y, P a ( f ) = P x ( f ) + P y ( f ), se: R xy (!) ' 0. La regola della semplice somma in potenza vale inoltre anche nel caso che i due processi reali diano luogo a v.a. ortogonali, come dimostrabile integrando la [1.50] e applicando la [1.46]; pertanto qualora la funzione di intercorrelazione sia nulla nella origine si usa la denominazione di processi additivi in potenza: [1.52] P a = P x + P y, se: R xy (0) = " P xy (f)df= "!{ P xy (f)} df=0. Si rammenti che in generale non risultano però sommabili gli spettri di potenza, ossia si ha P a ( f ) ) P x ( f ) + P y ( f ). Si noti infine che l'indipendenza statistica tra i due processi addendi, che risultano allora incorrelati, permette la semplice somma delle potenze e degli spettri solo a patto che almeno uno dei due processi abbia valore medio nullo (vedi [1.42] e [1.43]). Un secondo caso interessante, per cui è ancora sfruttabile la linearità dell operatore di media statistica, è quello del processo complesso, B(t), con realizzazioni b(t)=x(t)+jy(t) dove X(t) e Y(t) sono ancora due processi reali congiuntamente stazionari. Applicando le [1.18] e [1.21], si ricava il valore medio statistico:
12 12 [1.53] # b = E{x(t)+jy(t)} = E{x(t)}+jE{y(t)}= # x +j# y. Si ottiene poi la funzione di autocorrelazione: [1.54] R bb (!) = E{[x(t+!)+jy(t+!)][x(t)+jy(t)]*}= = E{x(t +!)x*(t)}+ E{y(t +!)y*(t)}-je{x(t+!)y*(t)}+je{y(t+!)x*(t)}= = R xx (!)+R yy (!)-j[r xy (!)-R yx (!)]. Il processo complesso considerato è dunque anch'esso stazionario. Grazie alle [1.27], [1.38] e [1.40] si ha inoltre: [1.55] P b (f) = P x (f)+p y (f)+2*{p xy (f)}. Ponendo! = 0 nelle [1.36] e [1.54], si ricava che la potenza del processo complesso considerato è sempre la somma delle potenze dei due processi che si compongono: [1.56] P b = P x + P y ; la loro eventuale incoerenza (vedi [1.42]) è allora condizione sufficiente affinché sia valida anche la semplice relazione riguardante le densità spettrali di potenza: [1.57] P b (f) = P x (f)+p y (f), se: R xy (!) ' PROCESSI DISCRETI REALI STAZIONARI Processi discreti reali stazionari a valori contini A valle di quanto sopra richiamato, è semplice da esaminare il caso di un processo discreto reale, indicato con Z(n), costituito da una sequenza di infinite v.a. reali continue, Z k, caratterizzate dalle funzioni di densità di probabilità di vario ordine riguardanti le determinazioni z k = z(k). In corrispondenza di due generiche variabili intere di saggiatura, k 1 e k 2, della variabile intera n, con lo stesso formalismo delle [1.8] - [1.15] si ottengono il valore medio statistico, #(k 1 ), la potenza media statistica, P(k 1 ), la varianza, $ 2 (k 1 ), così come la funzione di autocorrelazione, R(k 1,k 2 ), e la funzione di autocovarianza del processo discreto, K(k 1,k 2 ). Nel caso di interesse, dei processi discreti stazionari o stazionari in senso lato, la densità di probabilità del primo ordine è indipendente da k e quella del secondo ordine é invariante rispetto a una sua generica traslazione. Di conseguenza il valore medio statistico, la potenza e la varianza risultano delle costanti, indipendenti dalla variabile intera di saggiatura, mentre le funzioni di autocorrelazione e di autocovarianza dipendono dalla differenza intera, + = k 1 -k 2, delle due variabili di saggiatura e non dai loro valori in assoluto; si hanno poi le seguenti espressioni:
13 13 [1.58] E{z(k)} =! z k p(z k )dz k ˆ= # z, [1.59] E{ z 2 (k)} =! z 2 k p(z k )dz k ˆ= P z, [1.60] E{[z(k) - E{z(k)}] 2 } = ( z k -! z ) 2 2 " p(z k )dz k ˆ=! z, [1.61] E{z(k + +) z(k)} = "" z k +! z k p 2 (z k +!,z k ;!)dz k +! dz k ˆ= R zz (+), [1.62] E{[z(k + +) - # z ] [z(k) - # z ]}= ## (z k +! -" z )(z k -" z )p 2 (z k +!,z k ;!)dz k +! dz k ˆ= K zz (+), dove entrambe le grandezze R zz (+) e K zz (+) sono funzioni pari e valgono le proprietà: [1.63] R zz (+) = K zz (+) +! z 2, R zz (+) % R zz (0) = P z, K zz (+) % K zz (0) =! z 2, [1.64] R zz (0) = P z =! z 2 +! z 2 = K zz (0) +! z 2. Come nel caso di processo continuo, il valore medio statistico e la funzione di autocorrelazione sono sufficienti a caratterizzare un processo discreto stazionario. Considerando una coppia di processi discreti reali, Z(n) e V(n), entrambi congiuntamente stazionari, in aggiunta alle grandezze sintetiche sopra introdotte per ciascun processo, e in seguito distinte tramite l'aggiunta del pedice singolo z o v, si definiscono la funzione di intercorrelazione e la funzione di covarianza mutua della coppia di processi: [1.65] E{z(k + +) v(k)} ˆ= R zv (+), [1.66] E{[z(k + +) - # z ] [v(k) - # v ]} ˆ= K zv (+), dove # z e # v sono i valori medi statistici; scambiando tra loro i pedici nelle [1.65] e [1.66], si dimostrano le: [1.67] R vz (+) = R zv (-+), K vz (+) = K zv (-+). Tra le due funzioni sussiste la relazione: [1.68] R zv (+) = K zv (+) + # z # v ; valgono inoltre le proprietà: 2 zv [1.69] R (!) % R zz (0) R vv (0) = P z P v,
14 14 2 zv [1.70] K (!) % K zz (0) K vv (0) =! 2 z! 2 v, avendo indicato con P z e P v e con! z 2 e! v 2 rispettivamente le potenze e le varianze dei due processi discreti. Due processi discreti congiuntamente stazionari si dicono incoerenti se la funzione di intercorrelazione è nulla per ogni +, ossia si ha: [1.71] R zv (+) ' 0. Se invece tutti i valori della funzione di covarianza sono nulli: [1.72] K zv (+) = R zv (+) - # z # v ' 0, i due processi si denominano incorrelati. Due processi discreti stazionari statisticamente indipendenti sono sempre incorrelati; se almeno uno ha valore medio nullo sono anche incoerenti Processi discreti reali stazionari a valori discreti Tutte le espressioni riportate sono applicabili anche a un processo discreto a valori discreti, indicato con Z q (n), che corrisponde a una sequenza di infinite v.a. discrete, Z qk, capaci di assumere uno dei precisati valori di un insieme discreto, {z q }, di cardinalità finita M. Poiché, sempre nel caso stazionario e con limitazione al solo secondo ordine, le v.a. discrete sono caratterizzate dalle probabilità: [1.73] P(z q1 ; k 1 ) = P(z q2; k 2 ) = P(z q ) ˆ=, q, q = 1, 2,.., M, indipendenti dalla variabile intera di saggiatura, e dalle probabilità congiunte: [1.74] P 2 (z i1, z j2 ; k 1,k 2 ) = P 2 (x i, x j ; +) ˆ=, ij (+), i, j = 1, 2,.., M, che dipendono dalla differenza intera + = k 1 - k 2, occorre però che l operatore di media statistica assuma le forme specifiche: M M M [1.75] E{F 1 } ˆ= " F 1! q, E{F 2 } ˆ= ## F 2! i j( "), q=1 i=1 j=1 dove F 1 è funzione della v.a. discreta Z qk e F 2 è in generale una funzione di entrambe le v.a. discrete Z i1 e Z j2.
Ripasso segnali e processi casuali. Trasmissione dell Informazione
Ripasso segnali e processi casuali 1 Breve ripasso di segnali e trasformate Dato un segnale s(t), la sua densità spettrale si calcola come dove S(f) è la trasformata di Fourier. L energia di un segnale
DettagliPROCESSI CASUALI 1 Fondamenti di segnf a o lin d e a t m ra e s n mtii s T si L o C ne
PROCESSI CASUALI Fondamenti di segnali Fondamenti e trasmissione TLC Segnali deterministici Un segnale (t) si dice deterministico se è una funzione nota di t, cioè se ad un qualsiasi istante di tempo t
DettagliTeoria dei Segnali Trasmissione binaria casuale; somma di processi stocastici
eoria dei Segnali rasmissione binaria casuale; somma di processi stocastici Valentino Liberali Dipartimento di Fisica Università degli Studi di Milano valentino.liberali@unimi.it eoria dei Segnali rasmissione
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliVariabili casuali multidimensionali
Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità.
DettagliPulse Amplitude Modulation (PAM) 2 Scelta delle risposte impulsive dei filtri in trasmissione e ricezione
Pulse Amplitude Modulation (PAM 1 Definizione La trasmissione di una sequenza di numeri {a k } mediante un onda PAM consiste nel generare, a partire dalla sequenza {a k } il segnale a tempo continuo u(t
Dettagli1 4 Esempio 2. Si determini la distribuzione di probabilità della variabile casuale X = punteggio ottenuto lanciando un dado. Si ha immediatamente:
CAPITOLO TERZO VARIABILI CASUALI. Le variabili casuali e la loro distribuzione di probabilità In molte situazioni, dato uno spazio di probabilità S, si è interessati non tanto agli eventi elementari (o
DettagliAnalisi della disponibilità d acqua. Valutazione dell impianto attraverso il calcolo di un indice economico (criterio)
Analisi della disponibilità d acqua Valutazione dell impianto attraverso il calcolo di un indice economico (criterio) Approccio diverso a seconda del criterio di valutazione Nel caso di criterio statistico
DettagliRICHIAMI SU PROCESSI ALEATORI E DENSITÀ SPETTRALE DI POTENZA
RICHIAMI SU PROCESSI ALEATORI E DENSITÀ SPETTRALE DI POTENZA Paolo Bestagini Ph.D. Student bestagini@elet.polimi.it http://home.deib.polimi.it/bestagini Sommario 2 Segnali deterministici Continui Discreti
DettagliTeoria dei Segnali Un esempio di processo stocastico: il rumore termico
Teoria dei Segnali Un esempio di processo stocastico: il rumore termico Valentino Liberali Dipartimento di Fisica Università degli Studi di Milano valentino.liberali@unimi.it Teoria dei Segnali Il rumore
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
DettagliMaria Prandini Dipartimento di Elettronica e Informazione Politecnico di Milano
Note relative a test di bianchezza rimozione delle componenti deterministiche da una serie temporale a supporto del Progetto di Identificazione dei Modelli e Analisi dei Dati Maria Prandini Dipartimento
DettagliComunicazioni Elettriche anno accademico Esercitazione 1
Comunicazioni Elettriche anno accademico 003-004 Esercitazione Esercizio Un processo aleatorio a tempo discreto X(n) è definito nel seguente modo: Viene lanciata una moneta. Se il risultato è testa X(n)=
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliConcetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta
Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale
DettagliRETI DI TELECOMUNICAZIONE
RETI DI TELECOMUNICAZIONE CATENE DI MARKOV TEMPO CONTINUE Definizioni Sia dato un processo stocastico x(t) che può assumere valori discreti appartenenti ad un insieme se accade che il processo è una catena
DettagliSPETTRO DI POTENZA DI UN PROCESSO STOCASTICO
SPERO DI POENZA DI UN PROCESSO SOCASICO I segnali aleatori vengono comunemente denominati processi stocastici. Per un processo stocastico non è definibile, e dunque calcolabile, la trasformata di Fourier.
DettagliVariabili aleatorie. Variabili aleatorie e variabili statistiche
Variabili aleatorie Variabili aleatorie e variabili statistiche Nelle prime lezioni, abbiamo visto il concetto di variabile statistica : Un oggetto o evento del mondo reale veniva associato a una certa
DettagliTeoria dei Segnali. 1 Proprietà della trasformata di Fourier. correlazione tra segnali; autocorrelazione
Teoria dei Segnali Proprietà della trasformata di Fourier; correlazione tra segnali; autocorrelazione Valentino Liberali Dipartimento di Fisica Università degli Studi di Milano valentino.liberali@unimi.it
DettagliSegnali ad energia ed a potenza finita
Bozza Data 07/03/008 Segnali ad energia ed a potenza finita Energia e potenza di un segnale Definizioni di energia e potenza Dato un segnale (t), in generale complesso, si definisce potenza istantanea
DettagliUniversità degli Studi di Enna Kore Facoltà di Ingegneria ed Architettura
Facoltà di Ingegneria ed Architettura Anno Accademico 2016 2017 A.A. Settore Scientifico Disciplinare CFU Insegnamento Ore di aula Mutuazione 2016/17 ING-INF/03 9 Teoria dei Segnali 72 No Classe Corso
DettagliVariabili casuali. - di Massimo Cristallo -
Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 16 e 27 maggio 2013 - di Massimo Cristallo - Variabili casuali
DettagliII Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17
II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
DettagliQUANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA. 1 Fondamenti Segnali e Trasmissione
UANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA Fondamenti Segnali e Trasmissione Campionamento e quantizzazione di un segnale analogico Si consideri il segnale x(t) campionato con passo T c. Campioni del
DettagliANALISI DELLE SERIE STORICHE
ANALISI DELLE SERIE STORICHE De Iaco S. s.deiaco@economia.unile.it UNIVERSITÀ del SALENTO DIP.TO DI SCIENZE ECONOMICHE E MATEMATICO-STATISTICHE FACOLTÀ DI ECONOMIA 24 settembre 2012 Indice 1 Funzione di
DettagliAppunti su Indipendenza Lineare di Vettori
Appunti su Indipendenza Lineare di Vettori Claudia Fassino a.a. Queste dispense, relative a una parte del corso di Matematica Computazionale (Laurea in Informatica), rappresentano solo un aiuto per lo
DettagliCOPPIE DI VARIABILI ALEATORIE
COPPIE DI VAIABILI ALEATOIE E DI NADO 1 Funzioni di ripartizione congiunte e marginali Definizione 11 Siano X, Y va definite su uno stesso spazio di probabilità (Ω, F, P La coppia (X, Y viene detta va
DettagliLe variabili casuali o aleatorie
Le variabili casuali o aleatorie Intuitivamente un numero casuale o aleatorio è un numero sul cui valore non siamo certi per carenza di informazioni - ad esempio la durata di un macchinario, il valore
Dettagli9. Sistemi di Modulazione Numerica in banda traslata. Modulo TLC:TRASMISSIONI Modulazione numerica in banda traslata
1 9. Sistemi di Modulazione Numerica in banda traslata Modulazione QAM (analogica) 2 Modulazione QAM (Quadrature Amplitude Modulation; modulazione di ampiezza con portanti in quadratura) è un tipo di modulazione
DettagliOPERAZIONI SU SPAZI DI HILBERT. Nel seguito introdurremo i concetti di prodotto diretto e somma diretta di due spazi di Hilbert.
2/7 OPERAZIONI SU SPAZI DI HILBERT 11/12 1 OPERAZIONI SU SPAZI DI HILBERT Dati due spazi di Hilbert H (1) e H (2) si possono definire su di essi operazioni il cui risultato è un nuovo spazio di Hilbert
Dettagliλ è detto intensità e rappresenta il numero di eventi che si
ESERCITAZIONE N 1 STUDIO DI UN SISTEMA DI CODA M/M/1 1. Introduzione Per poter studiare un sistema di coda occorre necessariamente simulare gli arrivi, le partenze e i tempi di ingresso nel sistema e di
DettagliDispense del corso di Elettronica L Prof. Guido Masetti
Dispense del corso di Elettronica L Prof. Guido Masetti Teoria dei Segnali e Sistemi Sommario Architettura dei sistemi per l'elaborazione dell'informazione Informazione e segnali Teoria dei segnali Analisi
DettagliCampionamento e quantizzazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Campionamento e quantizzazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Conversione analogico-digitale L elaborazione
DettagliSTATISTICA: esercizi svolti sulle VARIABILI CASUALI
STATISTICA: esercizi svolti sulle VARIABILI CASUALI VARIABILI CASUALI 2 VARIABILI CASUALI. Variabili casuali generiche. Si supponga che un dado truccato, formato da sei facce contrassegnate dai numeri
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliDensità di probabilità del prodotto di due variabili casuali distribuite uniformemente
Firenze - Dip. di Fisica 2 agosto 2008 Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente In questa dispensa, che presentiamo a semplice titolo di esercizio e applicazione
DettagliRICHIAMI DI STATISTISTICA E CALCOLO DELLE PROBABILITA
RICHIAMI DI STATISTISTICA E CALCOLO DELLE PROBABILITA La Statistica è la disciplina che studia gli eventi non deterministici (o incerti) riguardo ai quali non si ha una completa conoscenza. Tali eventi
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliNote sulle Catene di Markov
Note sulle Catene di Markov ELAUT Prof. Giuseppe C. Calafiore Sommario Queste note contengono un estratto schematico ridotto di parte del materiale relativo alle Catene di Markov a tempo continuo e a tempo
DettagliBLAND-ALTMAN PLOT. + X 2i 2 la differenza ( d ) tra le due misure per ognuno degli n campioni; d i. X i. = X 1i. X 2i
BLAND-ALTMAN PLOT Il metodo di J. M. Bland e D. G. Altman è finalizzato alla verifica se due tecniche di misura sono comparabili. Resta da comprendere cosa si intenda con il termine metodi comparabili
DettagliTeoria dei Segnali Densità spettrale di energia e di potenza; campionamento e teorema di Shannon
Teoria dei Segnali Densità spettrale di energia e di potenza; campionamento e teorema di Shannon Valentino Liberali Dipartimento di Fisica Università degli Studi di Milano valentino.liberali@unimi.it Teoria
DettagliCapitolo 5. Variabili casuali discrete
Capitolo 5 Variabili casuali discrete Come già anticipato nel paragrafo 3, nella teoria della probabilità, una variabile casuale (o variabile aleatoria o variabile stocastica o random variable) può essere
DettagliFatica (HCF): conteggio dei cicli Lecture 5 Conteggio dei cicli
Fatica Conteggio dei cicli Fatica (HCF): conteggio dei cicli Lecture 5 Conteggio dei cicli Fatica Conteggio dei cicli Introduzione Le strutture reali sono soggette a stati di sollecitazione che variano
DettagliREGRESSIONE E CORRELAZIONE
REGRESSIONE E CORRELAZIONE Nella Statistica, per studio della connessione si intende la ricerca di eventuali relazioni, di dipendenza ed interdipendenza, intercorrenti tra due variabili statistiche 1.
DettagliTeoria dei Segnali Quantizzazione dei segnali; trasformata zeta
Teoria dei Segnali Quantizzazione dei segnali; trasformata zeta Valentino Liberali Dipartimento di Fisica Università degli Studi di Milano valentino.liberali@unimi.it Teoria dei Segnali Quantizzazione;
DettagliLo studio delle trasformazioni del piano in sé presuppone anche la conoscenza di alcune
Capitolo 1 Richiami sulle funzioni 1.1 Richiami di teoria Lo studio delle trasformazioni del piano in sé presuppone anche la conoscenza di alcune nozioni sulle funzioni e sui vettori. Per tale motivo in
DettagliTeoria dei Segnali Covarianza, correlazione e densità spettrale di potenza; processi stocastici stazionari
Teoria dei Segnali Covarianza, correlazione e densità spettrale di potenza; processi stocastici stazionari Valentino Liberali Dipartimento di Fisica Università degli Studi di Milano valentino.liberali@unimi.it
Dettagli3.1 La probabilità: eventi e variabili casuali
Capitolo 3 Elementi di teoria della probabilità Abbiamo già notato come, per la ineliminabile presenza degli errori di misura, quello che otteniamo come risultato della stima del valore di una grandezza
DettagliProject Scheduling: PERT. Il PERT ha potenzialità superiori rispetto a quelle di un semplice mezzo per la pianificazione ed il controllo.
1. Introduzione Project Scheduling: PERT Il PERT è una tecnica introdotta per la pianificazione ed il controllo di progetti in cui le durate t ij delle singole attività sono delle variabili aleatorie.
DettagliUniversità degli Studi di Palermo Facoltà di Economia. CdS Sviluppo Economico e Cooperazione Internazionale. Appunti del corso di Matematica
Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 02 - I Numeri Reali Anno Accademico 2013/2014 D. Provenzano, M.
DettagliGLI INSIEMI NUMERICI N Z Q R -C. Prof.ssa Maddalena Dominijanni
GLI INSIEMI NUMERICI N Z Q R -C 3 2 Ampliamento degli insiemi numerici Chiusura rispetto alle operazioni L insieme N = {0; 1; 2; 3; 4; } dei numeri naturali è chiuso rispetto all addizione e alla moltiplicazione
DettagliAnalisi delle corrispondenze
Capitolo 11 Analisi delle corrispondenze L obiettivo dell analisi delle corrispondenze, i cui primi sviluppi risalgono alla metà degli anni 60 in Francia ad opera di JP Benzécri e la sua equipe, è quello
DettagliIl blocco amplificatore realizza la funzione di elevare il livello (di tensione o corrente) del segnale (in tensione o corrente) in uscita da una
l blocco amplificatore realizza la funzione di elevare il livello (di tensione o corrente) del segnale (in tensione o corrente) in uscita da una sorgente. Nel caso, come riportato in figura, il segnale
Dettagli2. Analisi in frequenza di segnali
2.1 Serie di Fourier 2. Analisi in frequenza di segnali Secondo il teorema di Fourier, una funzione periodica y(t) è sviluppabile in una serie costituita da un termine costante A 0 e da una somma di infinite
DettagliDistribuzioni di due variabili aleatorie
Statistica e analisi dei dati Data: 6 Maggio 206 Distribuzioni di due variabili aleatorie Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori Distribuzioni congiunte e marginali Consideriamo due variabili
DettagliRETI DI TELECOMUNICAZIONE
RETI DI TELECOMUNICAZIONE Modelli delle Sorgenti di Traffico Generalità Per la realizzazione di un modello analitico di un sistema di telecomunicazione dobbiamo tenere in considerazione 3 distinte sezioni
DettagliDerivata materiale (Lagrangiana) e locale (Euleriana)
ispense di Meccanica dei Fluidi 0 0 det 0 = [ (0 ) + ( ( ) ) + (0 0 ) ] = 0. Pertanto, v e µ sono indipendenti tra loro e costituiscono una nuova base. Con essi è possibile descrivere altre grandezze,
DettagliTRASMISSIONE NUMERICA IN BANDA BASE
TRASMISSIONE NUMERICA IN BANDA BASE 1 Fondamenti di segnali Fondamenti e trasmissione TLC Trasmissione numerica in banda base Per trasmettere una sequenza di cifre binarie su un canale di trasmissione
DettagliSOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n
SPAZI E SOTTOSPAZI 1 SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n Spazi di matrici. Spazi di polinomi. Generatori, dipendenza e indipendenza lineare, basi e dimensione. Intersezione e somma di sottospazi,
DettagliElaborazione nel dominio delle frequenze. Elaborazione delle immagini digitali 1
Elaborazione nel dominio delle frequenze Elaborazione delle immagini digitali 1 Serie di Fourier Elaborazione delle immagini digitali 2 Introduzione alla trasformata di Fourier Una funzione periodica può
DettagliAppunti di matematica per le Scienze Sociali Parte 1
Appunti di matematica per le Scienze Sociali Parte 1 1 Equazioni 1.1 Definizioni preliminari 1.1.1 Monomi Si definisce monomio ogni prodotto indicato di fattori qualsiasi, cioè uguali o diseguali, numerici
DettagliQUANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA
QUANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA 1 Fondamenti di segnali Fondamenti e trasmissione TLC Campionamento e quantizzazione di un segnale analogico Si consideri il segnale x(t) campionato con passo
DettagliI POSTULATI DELLA MECCANICA QUANTISTICA
68 I POSTULATI DELLA MECCANICA QUANTISTICA Si intende per postulato una assunzione da accettarsi a priori e non contraddetta dall esperienza. I postulati trovano la loro unica giustificazione nella loro
DettagliCANALE STAZIONARIO CANALE TEMPO INVARIANTE
CANALE STAZIONARIO Si parla di un Canale Stazionario quando i fenomeni che avvengono possono essere modellati da processi casuali e le proprietà statistiche di tali processi sono indipendenti dal tempo.
DettagliI Segnali nella comunicazione
I Segnali nella comunicazione Nella lingua italiana il termine segnale indica una convenzione, la cui unzione è quella di comunicare qualcosa ( segnale di Partenza, segnale di aiuto, segnale stradale ecc.).
DettagliIl campionamento e l inferenza. Il campionamento e l inferenza
Il campionamento e l inferenza Popolazione Campione Dai dati osservati mediante scelta campionaria si giunge ad affermazioni che riguardano la popolazione da cui essi sono stati prescelti Il campionamento
Dettagli2. I numeri reali e le funzioni di variabile reale
. I numeri reali e le funzioni di variabile reale Introduzione Il metodo comunemente usato in Matematica consiste nel precisare senza ambiguità i presupposti, da non cambiare durante l elaborazione dei
DettagliANALISI DI SEGNALI BIOLOGICI
ANALISI DI SEGNALI BIOLOGICI A.Accardo accardo@units.it LM Neuroscienze A.A. 2010-11 1 Obiettivi del corso: Individuazione delle caratteristiche principali del segnale EEG quantificate mediante tecniche
DettagliCorso di Laurea in Matematica Analisi Numerica (1 mod., 6 crediti, 48 ore, a.a , lez.3)
Docente: Marco Gaviano (e-mail:gaviano@unica.it) Corso di Laurea in Matematica Analisi Numerica (1 mod., 6 crediti, 48 ore, a.a. 2014-2015, lez.3) 1 Analisi Numerica 1 mod. a.a. 2014-2015, Lezione n.3
DettagliProva di AUTOVALUTAZIONE (novembre 2009). nota: l esame ha validità solo se incluso nel piano degli studi per l anno accademico corrente.
UNIVERSITA DEGLI STUDI ROMA TRE CdS in Ingegneria Informatica corso di FONDAMENTI DI TELECOMUNICAZIONI Prova di AUTOVALUTAZIONE (novembre 2009). COMPITO A nota: l esame ha validità solo se incluso nel
DettagliRappresentazione dei numeri interi in un calcolatore
Corso di Calcolatori Elettronici I Rappresentazione dei numeri interi in un calcolatore Prof. Roberto Canonico Università degli Studi di Napoli Federico II Dipartimento di Ingegneria Elettrica e delle
DettagliVariabili aleatorie Parte I
Variabili aleatorie Parte I Variabili aleatorie Scalari - Definizione Funzioni di distribuzione di una VA Funzioni densità di probabilità di una VA Indici di posizione di una distribuzione Indici di dispersione
DettagliIntroduzione all inferenza statistica, II lezione
T (X) è sufficiente? (2) Introduzione all inferenza statistica, II lezione Carla Rampichini Dipartimento di Statistica Giuseppe Parenti - Firenze - Italia carla@ds.unifi.it - www.ds.unifi.it/rampi/ TEOREMA
DettagliLE VARIABILI CASUALI A 1, A 2.,..., A k., p 2.,..., p k. generati da una specifica prova sono necessari ed incompatibili:
LE VARIABILI CASUALI Introduzione Data prova, ad essa risultano associati i k eventi A, A,..., A k con le relative probabilità p, p,..., p k. I k eventi A i generati da una specifica prova sono necessari
DettagliUNIVERSITA DEGLI STUDI DI BRESCIA-FACOLTA DI MEDICINA E CHIRURGIA CORSO DI LAUREA IN INFERMIERISTICA SEDE DI DESENZANO dg STATISTICA MEDICA.
Lezione 4 DISTRIBUZIONE DI FREQUENZA 1 DISTRIBUZIONE DI PROBABILITA Una variabile i cui differenti valori seguono una distribuzione di probabilità si chiama variabile aleatoria. Es:il numero di figli maschi
DettagliRappresentazione dei numeri interi in un calcolatore
Corso di Calcolatori Elettronici I A.A. 2012-2013 Rappresentazione dei numeri interi in un calcolatore Prof. Roberto Canonico Università degli Studi di Napoli Federico II Dipartimento di Ingegneria Elettrica
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliEsercitazione ENS su processi casuali (13 e 14 Maggio 2008)
Esercitazione ES su processi casuali ( e 4 Maggio 2008) D. Donno Esercizio : Calcolo di autovalori e autovettori Si consideri un processo x n somma di un segnale e un disturbo: x n = Ae π 2 n + w n, n
Dettagli2.2.5 Approssimazione di un segnale in una base biortogonale (segnali rettangolari) Esercizi proposti... 46
Indice 1 Operazioni elementari, convoluzione, correlazione 1 1.1 Operazioni elementari........................ 1 1.1.1 Ribaltamento, traslazione, scalatura............ 1 1.2 Convoluzione.............................
DettagliLezione 2 Aprile 19, Il filtro di Kalman: derivazione delle equazioni
PSC: Progettazione di sistemi di controllo III Trim. 2007 Lezione 2 Aprile 19, 2007 Docente: Luca Schenato Stesori: Schenato 2.1 Il filtro di Kalman: derivazione delle equazioni Si consideri il modello
DettagliCapitolo 6. Variabili casuali continue. 6.1 La densità di probabilità
Capitolo 6 Variabili casuali continue Le definizioni di probabilità che abbiamo finora usato sono adatte solo per una variabile casuale che possa assumere solo valori discreti; vediamo innanzi tutto come
DettagliSviluppi e derivate delle funzioni elementari
Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim
DettagliLE SEQUENZE CASUALI. 1. Le sequenze a caso e le medie di insieme
II LE SEQUENZE CASUALI. Le sequenze a caso e le medie di insieme Per evitare di introdurre definizioni e concetti in maniera completamente astratta, partiamo da un caso fisico ben preciso e che in seguito
DettagliCalcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17
Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale aa 6/ Punteggi: : 3 + 6; : + + + ; 3: + Una scatola contiene monete; 8 di queste sono equilibrate, mentre le
Dettagli6. Trasmissione Numerica in Banda Base
1 INFO-COM Dpt. Dipartimento di Scienza e Tecnica dell Informazione e della Comunicazione Università degli Studi di Roma La Sapienza 6. Trasmissione Numerica in Banda Base TELECOMUNICAZIONI per Ingegneria
DettagliLezione 10: Interpolazione lineare Corso di Statistica Facoltà di Economia Università della Basilicata. Prof. Massimo Aria
Lezione 10: Interpolazione lineare Corso di Statistica Facoltà di Economia Università della Basilicata Prof. Massimo Aria aria@unina.it Il concetto di interpolazione In matematica, e in particolare in
DettagliStatistica. Alfonso Iodice D Enza
Statistica Alfonso Iodice D Enza iodicede@unicas.it Università degli studi di Cassino () Statistica 1 / 33 Outline 1 2 3 4 5 6 () Statistica 2 / 33 Misura del legame Nel caso di variabili quantitative
DettagliPAROLE CHIAVE Accuratezza, Accuracy, Esattezza, PRECISIONE, Precision, Ripetibilità, Affidabilità, Reliability, Scarto quadratico medio (sqm), Errore
PAROLE CHIAVE Accuratezza, Accuracy, Esattezza, PRECISIONE, Precision, Ripetibilità, Affidabilità, Reliability, Scarto quadratico medio (sqm), Errore medio, Errore quadratico medio (eqm), Deviazione standard,
DettagliSUCCESSIONI E SERIE NUMERICHE E DI FUNZIONI
SERIE NUMERICHE Si consideri una successione di elementi. Si definisce serie associata ad la somma Per ogni indice della successione, si definisce successione delle somme parziali associata a la somma
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliTEORIA DEI SISTEMI SISTEMI LINEARI
TEORIA DEI SISTEMI Laurea Specialistica in Ingegneria Meccatronica Laurea Specialistica in Ingegneria Gestionale Indirizzo Gestione Industriale TEORIA DEI SISTEMI SISTEMI LINEARI Ing. Cristian Secchi Tel.
DettagliSEGNALE ANALOGICO. Un segnale analogico ha un ampiezza che varia in maniera continua nel tempo
ACQUISIZIONE SEGNALE ANALOGICO 6 5 4 3 2 t Un segnale analogico ha un ampiezza che varia in maniera continua nel tempo CONVERTITORE A/D Dispositivo che realizza la conversione tra i valori analogici del
DettagliProbabilita' mediante l'analisi combinatoria D n,k =Disposizioni di n oggetti a k a k (o di classe k)
Probabilita' mediante l'analisi combinatoria D n,k =Disposizioni di n oggetti a k a k (o di classe k) Nel calcolo del numero di modalita' con cui si presenta un evento e' utile talvolta utilizzare le definizioni
DettagliI VETTORI GAUSSIANI E. DI NARDO
I VETTOI GAUSSIANI E. DI NADO. L importanza della distribuzione gaussiana I vettori di v.a. gaussiane sono senza dubbio uno degli strumenti più utili in statistica. Nell analisi multivariata, per esempio,
DettagliContenuti: Capitolo 14 del libro di testo
Test d Ipotesi / TIPICI PROBLEMI DI VERIFICA DI IPOTESI SONO Test per la media Test per una proporzione Test per la varianza Test per due campioni indipendenti Test di indipendenza Contenuti Capitolo 4
DettagliStatistica ARGOMENTI. Calcolo combinatorio
Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità
DettagliModelli probabilistici variabili casuali
Modelli probabilistici variabili casuali Le variabili casuali costituiscono il legame tra il calcolo della probabilità e gli strumenti di statistica descrittiva visti fino ad ora. Idea: pensiamo al ripetersi
DettagliCENNI SULLE VARIABILI ALEATORIE INTRODUZIONE ALLA TEORIA DELLE PROBABILITÀ APPROFONDIMENTO SULLA TEORIA DELLE PROBABILITÀ
CENNI SULLE VARIABILI ALEATORIE... 1 INTRODUZIONE ALLA TEORIA DELLE PROBABILITÀ... APPROFONDIMENTO SULLA TEORIA DELLE PROBABILITÀ... 3.1 Teorema della probabilità dell evento complementare... 3. Teorema
DettagliPROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07
PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 006/07 Esercizio 1 Prova scritta del 16/1/006 In un ufficio postale lavorano due impiegati che svolgono lo stesso compito in maniera indipendente, sbrigando
DettagliSerie e Trasformata di Fourier
Serie e Trasformata di Fourier Corso di Analisi Funzionale Prof. Paolo Nistri Cancelli, D Angelo, Giannetti Polinomio di Fourier Si consideri la successione costituita dalle restrizioni delle funzioni
Dettagli