Controlli Automatici e Teoria dei Sistemi Il Controllo Ottimo LQ
|
|
|
- Nicolo Battista Angelini
- 7 anni fa
- Visualizzazioni
Transcript
1 Controlli Automatici e Teoria dei Sistemi Il Controllo Ottimo LQ Prof. Roberto Guidorzi Dipartimento di Elettronica, Informatica e Sistemistica Università di Bologna Viale del Risorgimento 2, Bologna A.A. 2010/11 p. 1/24
2 Avvertenza: Queste slide vengono fornite agli allievi solo come traccia delle lezioni svolte. Per un approfondimento si suggerisce il testo: Marco Tibaldi - Progetto di sistemi di controllo, Pitagora, Bologna, 1995, ISBN A.A. 2010/11 p. 2/24
3 6.1 Il controllo ottimo LQ a tempo finito per i sistemi stazionari continui Si considera il sistema ẋ(t) = A x(t) + B u(t) (1) ove x R n, u R r e la coppia (A, B) è stabilizzabile, con la condizione iniziale x(0) = x 0. Si considera poi il problema di controllare lo stato del sistema ad uno stato finale x(t f ) molto prossimo a zero minimizzando la seguente funzione costo J = 1 2 x(t f) T S f x(t f ) tf 0 ( x(t) T Q x(t) + u(t) T R u(t) ) dt (2) ove S f 0, R > 0, Q > 0. Si noti come il primo termine di J penalizzi la distanza da 0 dello stato finale, il termine x(t) T Q x(t) la distanza da zero dello stato all istante t e l ultimo termine la potenza di controllo. Soluzione Per la minimizzazione di J si definisce la funzione Hamiltoniana H(t) = 1 2 ( x(t) T Q x(t) + u(t) T R u(t) ) + p T (t) (A x(t) + B u(t)). (3) A.A. 2010/11 p. 3/24
4 Derivando parzialmente rispetto ad x si ottiene il sistema aggiunto con la condizione finale ṗ(t) = H x = AT p(t) Q x(t) (4) p(t f ) = S f x(t f ) (5) mentre derivando rispetto ad u si ottiene la condizione di stazionarietà H u = BT p(t) + R u(t) = 0. (6) Le (4) e (6) vengono dette condizioni di Eulero Lagrange. Le equazioni differenziali (1) e (4) possono venire riunite in un unico modello differenziale che viene detto sistema Hamiltoniano ẋ(t) = A 0 x(t) + B u(t) (7) ṗ(t) Q A T p(t) 0 [ ] 0 = 0 B T x(t) + R u(t). (8) p(t) A.A. 2010/11 p. 4/24
5 Le equazioni (7) e (8) descrivono un sistema non puramente dinamico ed il problema di controllo LQ originario è stato riportato al problema di mantenere nulla l uscita del sistema Hamiltoniano agendo in maniera opportuna sul controllo u(t). Essendo R > 0, dalla (6) si ricava u(t) = R 1 B T p(t) (9) quindi il sistema Hamiltoniano può venire visto come il sistema libero ẋ(t) = A BR 1 B T x(t) (10) ṗ(t) Q A T p(t) da risolvere con le condizioni x(0) = x 0 e p(t f ) = S f x(t f ). Dato che x(t) e p(t) sono funzioni lineari rispettivamente di x(0) e p(0), sono reciprocamente lineari per ogni t e si può scrivere p(t) = S(t)x(t) (11) con la condizione p(t f ) = S f x(t f ). Derivando la (11) si ottiene ṗ(t) = Ṡ(t) x(t) + S(t) ẋ(t) = Ṡ(t) x(t) + S(t) ( A x(t) BR 1 B T p(t) ). (12) A.A. 2010/11 p. 5/24
6 D altronde vale anche la relazione (4) ṗ(t) = A T p(t) Q x(t) (13) ed eguagliando i secondi membri delle (12) e (13) si ottiene la relazione Ṡ(t) x(t) = A T S(t) x(t) + S(t) A x(t) S(t) B R 1 B T S(t) x(t) + Q x(t) (14) che vale per ogni x(t); si ottiene così l equazione (differenziale) di Riccati Ṡ(t) = A T S(t) + S(t)A S(t)BR 1 B T S(t) + Q, S(t f ) = S f. (15) Risolvendo la (15) si ottiene S(t) e, conseguentemente, l ingresso u(t) = R 1 B T S(t) x(t) (16) ossia la retroazione stato ingresso u(t) = K(t) x(t) ove K(t) = R 1 B T S(t). (17) A.A. 2010/11 p. 6/24
7 Calcolo del costo del controllo ottimo Teorema Il costo del controllo ottimo (16) che minimizza la funzione costo (2) partendo dallo stato iniziale x 0 è dato da quello relativo all intervallo [t, t f ] da Dimostrazione Si consideri il sistema non stazionario J(0) = 1 2 xt 0 S(0) x 0, (18) J(t) = 1 2 x(t)t S(t) x(t). (19) ẋ(t) = A(t) x(t), (20) lo stato finale x(t f ) = x f e la forma quadratica funzione del tempo ove M(t) 0. Si calcolerà ora la funzione costo x T (t)m(t) x(t) (21) J(t 0 ) = x(t f ) T S f x(t f ) + tf t 0 x(t) T M(t) x(t) dt, S f 0. (22) A.A. 2010/11 p. 7/24
8 Si consideri, a tale scopo, l equazione differenziale di Lyapunov Ṡ(t) = A T (t)s(t) + S(t)A(t) + M(t), S(t f ) = S f ; (23) la derivata rispetto a t della forma quadratica x T (t)s(t) x(t) è data da d dt ne segue Ponendo ora ( x T (t)s(t) x(t) ) = 2 x T (t)s(t) ẋ(t) + x T (t)ṡ(t)x(t) = 2 x T (t)s(t)a(t)x(t) + x T (t) ( A T (t)s(t) S(t)A(t) M(t) ) x(t) = x T (t)m(t) x(t) ; (24) J(t 0 ) = x(t f ) T S f x(t f ) x(t) T S(t) x(t) t f t0 = x T 0 S(t 0 ) x 0. (25) A(t) = A BK(t) (26) M(t) = Q + K T (t)b T RBK(t) (27) con K(t) data dalla (17), l equazione differenziale di Lyapunov coincide con l equazione differenziale di Riccati ed il costo relativo allo stato iniziale x 0 è dato dall espressione (18). A.A. 2010/11 p. 8/24
9 Generalizzazione del problema di regolazione ottima LQ Si considera il sistema ẋ(t) = A x(t) + B u(t), x(0) = x 0 (28) y(t) = C x(t) (29) e la funzione costo J = 1 2 x(t f) T S f x(t f ) tf 0 ( y(t) T Q y(t) + u(t) T R u(t) ) dt (30) ove S f 0, R > 0, Q > 0. Tale formulazione si riconduce facilmente alla precedente osservando che y(t) T Q y(t) = x(t) T C T Q Cx(t) (31) e che la condizione Q > 0 implica C T Q C 0. Si può quindi utilizzare la soluzione (16) ottenuta considerando una matrice Q = C T Q C. A.A. 2010/11 p. 9/24
10 Controllo ottimo a minima energia Si considera il sistema (1) con x(t 0 ) = x 0, x(t f ) = x f, S f = 0, Q = 0 e R = I r. La funzione costo diventa J = 1 2 tf 0 u(t) T u(t) dt. (32) La legge di controllo ottima è data, in questo caso, da u(t) = B T e AT (t f t) ( Wc 2 (t f ) ) 1 (xf e At f x 0 ) (33) ove W 2 c (t f ) indica il Gramiano di raggiungibilità dato da W 2 c (t f ) = tf 0 e A(t τ) BB T e AT (t τ) dτ. (34) A.A. 2010/11 p. 10/24
11 6.2 L equazione di Lyapunov per i sistemi continui Tale equazione consente di calcolare l integrale di una forma quadratica lungo la traiettoria associata al moto libero di un sistema dinamico lineare continuo in base allo stato iniziale del sistema. Teorema Dato il sistema lineare libero ẋ(t) = A x(t), x(0) = x 0 (35) supposto asintoticamente stabile e la matrice simmetrica M 0, l integrale è dato da J = dove P è la soluzione dell equazione algebrica di Lyapunov 0 x T (t) M x(t) dt (36) J = x T 0 P x 0 (37) A T P + P A = M. (38) A.A. 2010/11 p. 11/24
12 Dimostrazione Si definisca la funzione di x lungo una traiettoria del sistema (35) risulta V (x) := x T P x ; (39) V (x(t)) = ẋ T (t)px(t) + x T (t)pẋ(t) = x T (t)a T Px(t) + x T (t)pax(t) = x T (t)mx(t) (40) ove M = A T P + PA. Ne segue che 0 x T (t) M x(t) dt = 0 V (x(t)) dt = V (x(t)) 0 = xt 0 Px 0. (41) A.A. 2010/11 p. 12/24
13 6.3 Il controllo ottimo LQ a tempo infinito per i sistemi stazionari continui Si considera il sistema ẋ(t) = A x(t) + B u(t) (42) ove x R n, u R r e la coppia (A, B) è stabilizzabile, con la condizione iniziale x(0) = x 0. Si considera poi il problema di controllare lo stato del sistema allo stato finale zero minimizzando la seguente funzione costo ove R > 0, Q > 0. J = 1 2 Soluzione Si consideri l equazione algebrica di Riccati 0 ( x(t) T Q x(t) + u(t) T R u(t) ) dt (43) 0 = A T S + SA SBR 1 B T S + Q (44) che può venire risolta utilizzando l equazione alle differenze di Riccati A.A. 2010/11 p. 13/24
14 S(k) = A T S(k + 1)A A T S(k + 1)B ( R + B T S(k + 1)B ) 1 B T S(k + 1)A + Q (45) con S(t f ) = I n ; la soluzione della (44) è data da La legge di controllo cercata è con S = lim S(k). (46) k u(t) = Kx(t) (47) K = R 1 B T S. (48) Il costo del controllo, dall istante t all infinito è dato da J(t) = 1 2 xt (t) S x(t). (49) A.A. 2010/11 p. 14/24
15 6.4 Il controllo ottimo LQ a tempo finito per i sistemi stazionari a tempo discreto Si considera il sistema x(k + 1) = A x(k) + B u(k) (50) ove x R n, u R r e la coppia (A, B) è stabilizzabile, con la condizione iniziale x(0) = x 0. Si considera poi il problema di controllare lo stato del sistema ad uno stato finale x(k f ) molto prossimo a zero minimizzando la seguente funzione costo J = 1 2 x(k f) T S f x(k f ) k f 1 k=0 ( x(k) T Q x(k) + u(k) T R u(k) ) (51) ove S f 0, R 0, Q 0. Si noti come il primo termine di J penalizzi la distanza da 0 dello stato finale, il termine x(k) T Q x(k) la distanza da zero dello stato all istante k e l ultimo termine la potenza di controllo. Soluzione Per la minimizzazione di J si definisce la funzione Hamiltoniana A.A. 2010/11 p. 15/24
16 H(k) = 1 2 ( x(k) T Q x(k) + u(k) T R u(k) ) + p T (k + 1) (A x(k) + B u(k)). (52) Differenziando parzialmente rispetto ad x si ottiene il sistema aggiunto con la condizione finale p(k) = H x = AT p(k + 1) + Q x(k) (53) p(k f ) = S f x(k f ) (54) mentre differenziando rispetto ad u si ottiene la condizione di stazionarietà H u = BT p(k + 1) + R u(k) = 0. (55) Le equazioni alle differenze (50) e (53) possono venire riunite in un unico modello che viene detto sistema Hamiltoniano x(k + 1) A 0 = x(k) + B u(k) (56) p(k + 1) A T Q A T p(k) 0 A.A. 2010/11 p. 16/24
17 0 = [ B T A T Q B T A T ] x(k) + R u(k). (57) p(k) Le equazioni (56) e (57) descrivono un sistema non puramente dinamico ed il problema di controllo LQ originario è stato riportato al problema di mantenere nulla l uscita del sistema Hamiltoniano agendo in maniera opportuna sul controllo u(k). Ipotizzando che sia p(k) = S(k)x(k), dalla (55) si ottiene dalla quale segue quindi R u(k) = B T S(k + 1) (A x(k) + B u(k)) (58) ( R + B T S(k + 1)B ) u(k) = B T S(k + 1)A x(k) (59) u(k) = ( R + B T S(k + 1)B ) 1 B T S(k + 1)A x(k). (60) Dalla (53) poi si deduce la relazione S(k) x(k) = A T S(k + 1) (A x(k) + B u(k)) + Q x(k) (61) A.A. 2010/11 p. 17/24
18 e, sostituendo ad u(k) l espressione (60), si ottiene S(k) x(k) = A T S(k + 1)A x(k) (62) A T S(k + 1) B ( R + B T S(k + 1)B ) 1 B T S(k + 1) A x(k) + Q x(k) Essendo la (62) valida per ogni x(k) ne segue l equazione alle differenze di Riccati S(k) = A T S(k + 1)A A T S(k + 1) B ( R + B T S(k + 1)B ) 1 B T S(k + 1) A + Q (63) con la condizione S(k f ) = S f. Determinata S(k) dalla (63), si ricava il valore del controllo all istante k u(k) = ( R + B T S(k + 1)B ) 1 B T S(k + 1) A x(k) (64) ossia la matrice di retroazione stato ingresso K(k) = ( R + B T S(k + 1)B ) 1 B T S(k + 1) A. (65) A.A. 2010/11 p. 18/24
19 Calcolo del costo del controllo ottimo Teorema Il costo del controllo ottimo (64) che minimizza la funzione costo (51) partendo dallo stato iniziale x 0 è dato da J(x 0 ) = 1 2 xt 0 S(0) x 0. (66) Dimostrazione Si consideri il sistema non stazionario x(k + 1) = A(k) x(k), (67) lo stato finale x(k f ) = x f e la forma quadratica funzione del tempo ove M(k) 0. Si calcolerà ora la funzione costo J(0) = x(k f ) T S f x(k f ) + x T (k)m(k) x(k) (68) k f k=0 introducendo l equazione alle differenze di Lyapunov x(k) T M(k) x(k), S(k f ) = S f (69) S(k) = A T (k) S(k + 1)A(k) + M(k), S(k f ) = S f (70) A.A. 2010/11 p. 19/24
20 e calcolando la quantità S(k) = x T (k + 1)S(k + 1)x(k + 1) x T (k)s(k)x(k) (71) Ne segue che = x T (k)a T (k)s(k + 1)A(k)x(k) x T (k) ( A T (k)s(k + 1)A(k) + M(k) ) x(k) = x T (k)m(k)x(k). J(k f ) = x(k f ) T S f x(k f ) + k f 1 k=0 x(k) T M(k) x(k) (72) = x(k f ) T S f x(k f ) x(k) T S(k) x(k) k f 0 = x T 0 S(0) x 0 = x(0) T S(0) x(0). Ponendo poi A(k) = A BK(k) (73) M(k) = Q + K T (k)b T RBK(k) (74) ed utilizzando l espressione (65) di K(k), si ottiene infine il costo del controllo, dato dall espressione (66). A.A. 2010/11 p. 20/24
21 6.5 Le equazioni di Lyapunov per i sistemi a tempo discreto Tali equazioni consentono di calcolare la sommatoria di una forma quadratica lungo la traiettoria associata al moto libero di un sistema dinamico lineare a tempo discreto, in base allo stato iniziale del sistema. Teorema Dato il sistema lineare libero x(k + 1) = A d x(k), x(0) = x 0 (75) supposto asintoticamente stabile e la matrice simmetrica M 0, la sommatoria J = x T (k) M x(k) (76) è data da k=0 J = x T 0 P x 0 (77) dove P è la soluzione dell equazione algebrica discreta di Lyapunov P = A T d P A d + M. (78) A.A. 2010/11 p. 21/24
22 Dimostrazione Si definisca la funzione di x V (x) := x T P x ; (79) lungo una traiettoria del sistema (79) risulta V (x(k)) = x T (k + 1)Px(k + 1) x T (k)px(k) = x T (k)a T d PA d x(k) x T (k)px(k) = x T (k)mx(k) (80) ove M = A T d PA d P. Ne segue che x T (k) M x(k) = V x(k) = V (x(k)) = 0 xt 0 Px 0. (81) k=0 k=0 A.A. 2010/11 p. 22/24
23 6.6 Il controllo ottimo LQ a tempo infinito per i sistemi stazionari a tempo discreto Si considera il sistema x(k + 1) = A x(k) + B u(k) (82) ove x R n, u R r e la coppia (A, B) è stabilizzabile, con la condizione iniziale x(0) = x 0. Si considera poi il problema di controllare lo stato del sistema allo stato finale zero minimizzando la seguente funzione costo J = 1 2 ( x(k) T Q x(k) + u(k) T R u(k) ) dt (83) k=0 ove R > 0, Q 0. Soluzione Si consideri l equazione algebrica discreta di Riccati S = A T SA A T SB ( R + B T SB ) 1 B T SA + Q (84) che può venire risolta utilizzando l equazione alle differenze di Riccati (63) A.A. 2010/11 p. 23/24
24 con la condizione S(k f ) = I n ; si ottiene infatti La legge di controllo cercata è con Il costo del controllo, dall istante k all infinito è dato da S = lim S(k). (85) k u(k) = Kx(k) (86) K = ( R + B T SB ) 1 B T SA. (87) J(k) = 1 2 xt (k) S x(k). (88) A.A. 2010/11 p. 24/24
Controlli Automatici e Teoria dei Sistemi Esempi di sistemi dinamici
Controlli Automatici e Teoria dei Sistemi Esempi di sistemi dinamici Prof. Roberto Guidorzi Dipartimento di Elettronica, Informatica e Sistemistica Università di Bologna Viale del Risorgimento 2, 40136
Analisi dei Sistemi Esercitazione 1
Analisi dei Sistemi Esercitazione Soluzione 0 Ottobre 00 Esercizio. Sono dati i seguenti modelli matematici di sistemi dinamici. ÿ(t) + y(t) = 5 u(t)u(t). () t ÿ(t) + tẏ(t) + y(t) = 5sin(t)ü(t). () ẋ (t)
ẋ 1 = 2x 1 + (sen 2 (x 1 ) + 1)x 2 + 2u (1) y = x 1
Alcuni esercizi risolti su: - calcolo dell equilibrio di un sistema lineare e valutazione delle proprietà di stabilità dell equilibrio attraverso linearizzazione - calcolo del movimento dello stato e dell
Controlli Automatici e Teoria dei Sistemi I Sistemi Lineari Stazionari Retroazione, Modelli di Ingresso Uscita, Realizzazione
Controlli Automatici e Teoria dei Sistemi I Sistemi Lineari Stazionari Retroazione, Modelli di Ingresso Uscita, Realizzazione Prof. Roberto Guidorzi Dipartimento di Elettronica, Informatica e Sistemistica
Esercizi di teoria dei sistemi
Esercizi di teoria dei sistemi Controlli Automatici LS (Prof. C. Melchiorri) Esercizio Dato il sistema lineare tempo continuo: ẋ(t) 2 y(t) x(t) x(t) + u(t) a) Determinare l evoluzione libera dello stato
Il filtro di Kalman stazionario e il regolatore LQG
Il filtro di stazionario e il regolatore LQG P. Valigi Ottimizzazione e Controllo 30 Aprile 2014 L estensione di KF al caso stazionario/intervallo infinito Nell estensione del filtro di ad intervallo infinito
Esame scritto di Teoria dei Sistemi - Modena - 22 Giugno Domande
Esame scritto di Teoria dei Sistemi - Modena - Giugno 5 - Domande Per ciascuno dei seguenti test a risposta multipla segnare con una crocetta le affermazioni che si ritengono giuste. Alcuni test sono seguiti
Raggiungibilità, Controllabilità, Osservabilità e Determinabilità
Raggiungibilità, Controllabilità, Osservabilità e Determinabilità Si determini se i sistemi lineari tempo invarianti ẋ(t) = Ax(t) + Bu(t), Σ c : y(t) = Cx(t) + Du(t). x(k + ) = Ax(k) + Bu(k), Σ d : y(k)
TEORIA DEI SISTEMI SISTEMI LINEARI
TEORIA DEI SISTEMI Laurea Specialistica in Ingegneria Meccatronica Laurea Specialistica in Ingegneria Gestionale Indirizzo Gestione Industriale TEORIA DEI SISTEMI SISTEMI LINEARI Ing. Cristian Secchi Tel.
Esercizi. { ẋ1 = 2x 1 (1 + x 2 2 ) ẋ 2 = x 2 (1 x 2 1 ) x(k +1) = x(k)+ 1 u(k) dove x(k) =
Capitolo. INTRODUZIONE 7. Esercizi. Si consideri il seguente sistema non lineare tempo-continuo: { ẋ x x x + u ẋ x x + u.a) Posto u u, trovare i punti di equilibrio del sistema e studiarne la stabilità
Punti di equilibrio: sistemi tempo continui
Capitolo 3 ANALISI DELLA STABILITÀ 31 Punti di equilibrio: sistemi tempo continui Si consideri il seguente sistema tempo continuo: ẋ(t) A x(t) + B u(t) y(t) C x(t) + D u(t) I punti di equilibrio x 0 del
Fondamenti di Automatica
Fondamenti di Automatica Introduzione e modellistica dei sistemi Introduzione allo studio dei sistemi Modellistica dei sistemi dinamici elettrici Modellistica dei sistemi dinamici meccanici Modellistica
Controllo di sistemi multivariabile (MIMO)
1 Controllo di sistemi multivariabile (MIMO) Assegnamento di autovalori o stabilizzazione: sfruttando le proprietà di controllabilità (o stabilizzabilità), è possibile progettare leggi di controllo con
Analisi Matematica 3/Analisi 4 - SOLUZIONI (20/01/2016)
Corso di Laurea in Matematica Docente: Claudia Anedda Analisi Matematica 3/Analisi 4 - SOLUZIONI (//6) ) i) Dopo averla classificata, risolvere l equazione differenziale tẋ x = t cos(t), t >. ii) Scrivere
Lezione 20: Stima dello stato di un sistema dinamico
ELABORAZIONE dei SEGNALI nei SISTEMI di CONTROLLO Lezione 20: Stima dello stato di un sistema dinamico Motivazioni Formulazione del problema Osservazione dello stato Osservabilità Osservatore asintotico
3. Sistemi Lineari a Tempo Discreto
. Sistemi Lineari a Tempo Discreto .5 y(t), y(kt) 4 y(t), y(kt).5.5.5.5.5 4 5 4 5 Campionamento di un segnale continuo Fig. (a) Segnale discreto Fig. (b) Esprimono relazioni fra variabili campionate ad
Prof. SILVIA STRADA Cognomi LF - PO
Politecnico di Milano Prof. SILVIA STRADA Cognomi LF - PO A.A. 2015/16 Appello di Fondamenti di Automatica (CL Ing. Gestionale) 1 Marzo 2016 Tempo a disposizione: 2.00 h. Nome e Cognome:... Matricola...
AUTOMATICA I (Ingegneria Biomedica - Allievi da L a Z) Appello dell 8 luglio 2008: testo e soluzione
AUTOMATICA I (Ingegneria Biomedica - Allievi da L a Z) Appello dell 8 luglio 8: testo e soluzione Prof. Maria Prandini 1. Si consideri il sistema con ingresso u ed uscita y descritto dalle seguenti equazioni:
Raggiungibilità e Controllabilità Esercizi risolti
Raggiungibilità e ontrollabilità Esercizi risolti 1 Esercizio Dato il seguente sistema dinamico LTI a tempo discreto descritto dalle matrici A e B: [ [ 1 k k A, B 0 1 + k 1 studiare le proprietà di raggiungibilità
01. Modelli di Sistemi
Controlli Automatici 01. Modelli di Sistemi Prof. Cesare Fantuzzi Ing. Cristian Secchi Ing. Federica Ferraguti ARSControl - DISMI - Università di Modena e Reggio Emilia E-mail: {nome.cognome}@unimore.it
Esame di FONDAMENTI DI AUTOMATICA (9 CFU) SOLUZIONE
Esame di FONDAMENTI DI AUTOMATICA (9 CFU) Prova scritta 9 giugno 2017 SOLUZIONE ESERCIZIO 1. Si consideri un altoparlante ad attrazione magnetica per la riproduzione sonora, rappresentato dalla seguente
0.1 Arco di curva regolare
.1. ARCO DI CURVA REGOLARE 1.1 Arco di curva regolare Se RC(O, i, j, k ) è un riferimento cartesiano fissato per lo spazio euclideo E, e se v (t) = x(t) i + y(t) j + z(t) k è una funzione a valori vettoriali
Capitolo 6. Sistemi lineari di equazioni differenziali. 1
Capitolo 6 Sistemi lineari di equazioni differenziali L integrale generale In questo capitolo utilizzeremo la forma canonica di Jordan per studiare alcuni tipi di equazioni differenziali Un sistema lineare
Proprietà strutturali: Controllabilità e Osservabilità
CONTROLLI AUTOMATICI LS Ingegneria Informatica Proprietà strutturali: Controllabilità e Osservabilità Prof. Claudio Melchiorri DEIS-Università di Bologna Tel. 051 2093034 e-mail: [email protected]
Compito di SISTEMI E MODELLI 24/01/18: PARTE 1
Compito di SISTEMI E MODELLI 4//8: PARTE Non è ammesso l uso di libri, quaderni o calcolatrici programmabili. Le risposte vanno giustificate. Saranno rilevanti per la valutazione anche l ordine e la chiarezza
Proprietà strutturali e leggi di controllo
Proprietà strutturali e leggi di controllo Retroazione statica dallo stato La legge di controllo Esempi di calcolo di leggi di controllo Il problema della regolazione 2 Retroazione statica dallo stato
4. Linearità e Linearizzazione
4. Linearità e Linearizzazione 4 Linearità e Linearizzazione Principio di sovrapposizione degli effetti Considera il sistema lineare tempo-discreto, tempo-invariante: < : x(k +) = Ax(k)+Bu(k) x() = x La
TEMI D ESAME DI ANALISI MATEMATICA I
TEMI D ESAME DI ANALISI MATEMATICA I Corso di laurea quadriennale) in Fisica a.a. 003/04 Prova scritta del 3 aprile 003 ] Siano a, c parametri reali. Studiare l esistenza e, in caso affermativo, calcolare
DEDUZIONE DEL TEOREMA DELL'ENERGIA CINETICA DELL EQUAZIONE SIMBOLICA DELLA DINAMICA
DEDUZIONE DEL TEOREMA DELL'ENERGIA CINETICA DELL EQUAZIONE SIMBOLICA DELLA DINAMICA Sia dato un sistema con vincoli lisci, bilaterali e FISSI. Ricaviamo, dall equazione simbolica della dinamica, il teorema
Esercitazioni di Matematica
Università degli Studi di Udine Anno Accademico 009/00 Facoltà di Agraria Corsi di Laurea in VIT e STAL Esercitazioni di Matematica novembre 009 Trovare le soluzioni della seguente disequazione: x + +
Matrice esponenziale e sistemi differenziali lineari a coefficienti costanti
Matrice esponenziale e sistemi differenziali lineari a coefficienti costanti Matrice esponenziale Sia A R n,n una matrice quadrata n n Per definire l esponenziale di A, prendiamo spunto dall identità e
Risoluzione di sistemi lineari sparsi e di grandi dimensioni
Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica
Fondamenti di Automatica. Unità 3 Equilibrio e stabilità di sistemi dinamici
Fondamenti di Automatica Unità 3 Equilibrio e stabilità di sistemi dinamici Equilibrio e stabilità di sistemi dinamici Equilibrio di sistemi dinamici Linearizzazione di sistemi dinamici Stabilità interna
Fondamenti di Automatica
Fondamenti di Automatica Proprietà strutturali e leggi di controllo aggiungibilità e controllabilità etroazione statica dallo stato Osservabilità e rilevabilità Stima dello stato e regolatore dinamico
Raggiungibilità e osservabilità
Raggiungibilità e osservabilità January 5, 2 La raggiungibilità e l osservabilità sono due proprietà che caratterizzano lo spazio di stato associato ad un sistema. Raggiungibilità Uno stato x è raggiungibile
SEGNALI E SISTEMI (a.a ) Proff. L. Finesso, M. Pavon e S. Pinzoni Prova scritta 15 dicembre 2003 Testo e Soluzione
Esercizio 1 [punti 4] SEGNALI E SISTEMI (a.a. 003-004) Proff. L. Finesso, M. Pavon e S. Pinzoni Prova scritta 15 dicembre 003 Testo e Soluzione Per ciascuno dei seguenti segnali dire se è periodico e,
Stabilità e retroazione
0.0. 4.1 1 iagramma Stabilità e retroazione Stabilità dei sistemi dinamici lineari: Un sistema G(s) è asintoticamente stabile se tutti i suoi poli sono a parte reale negativa. Un sistema G(s) è stabile
Esercizi di Fondamenti di Automatica
Esercizi di Fondamenti di Automatica Bruno Picasso Esercizio Sia dato il sistema lineare { ẋ(t) = Ax(t), x R n x() = x.. Mostrare che se x è tale che Ax = λx, λ R, allora il corrispondente movimento dello
MODELLI A TEMPO CONTINUO IN EQUAZIONI DI STATO. Sistema lineare stazionario a tempo continuo in equazioni di stato. = Cx(t) + Du(t) x(0) = x 0
MODELLI A TEMPO CONTINUO IN EQUAZIONI DI STATO Sistema lineare stazionario a tempo continuo in equazioni di stato ẋ(t) y(t) = Ax(t) + Bu(t) = Cx(t) + Du(t) x() = x Risposta completa (risposta libera e
Teoria dei Segnali Proprietà della trasformata di Fourier; correlazione tra segnali; autocorrelazione
Teoria dei Segnali Proprietà della trasformata di Fourier; correlazione tra segnali; autocorrelazione p. 1 Teoria dei Segnali Proprietà della trasformata di Fourier; correlazione tra segnali; autocorrelazione
Controllo con retroazione dello stato
CONTROLLI AUTOMATICI LS Ingegneria Informatica Controllo con retroazione dello stato Prof. Claudio Melchiorri DEIS-Università di Bologna Tel. 51 29334 e-mail: [email protected] http://www-lar.deis.unibo.it/people/cmelchiorri
s + 6 s 3, b) i valori di K per i quali il sistema a ciclo chiuso risulta asintoticamente stabile;
1 Esercizi svolti Esercizio 1. Con riferimento al sistema di figura, calcolare: ut) + K s s + 6 s 3 yt) a) la funzione di trasferimento a ciclo chiuso tra ut) e yt); b) i valori di K per i quali il sistema
