Controllo di Sistemi

Documenti analoghi
5.3 Alcune classi di funzioni integrabili

Università degli Studi di Roma La Sapienza

ESERCIZI DI EQUAZIONI DIFFERENZIALI - FOGLIO N. 4

Si dimostri che la (*) possiede un unica soluzione (u n ) limitata.

1 Punti di equilibrio e stabilità: definizioni

0.1 Arco di curva regolare

Analisi 2. Roberto Monti. Appunti del Corso - Versione 5 Ottobre 2012

UNIVERSITÀ DI ROMA TOR VERGATA. Analisi Matematica II per Ingegneria Prof. C. Sinestrari

ANALISI MATEMATICA 3. esercizi assegnati per la prova scritta del 31 gennaio 2011

Alcune nozioni di calcolo differenziale

Università degli Studi di Firenze Corso di Laurea triennale in Fisica e Astrofisica

Introduzione ai sistemi dinamici

Prova Finale di Tipo B e Prova di Accesso alla Laura Magistrale. Dip. Matematica - Università Roma Tre

19 Marzo Equazioni differenziali.

3. Successioni di insiemi.

FM1 - Equazioni differenziali e meccanica

Analisi Matematica I

Controlli Automatici e Teoria dei Sistemi I modelli dei sistemi

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima.

Definizione di Sistema Dinamico

Analisi Matematica 1+2

TEORIA DEI SISTEMI SISTEMI LINEARI

I teoremi della funzione inversa e della funzione implicita

Politecnico di Milano Corso di Analisi e Geometria 1. Federico Lastaria. Curve nello spazio Gennaio Lunghezza d arco

ANALISI MATEMATICA II 6 luglio 2010 Versione A

SISTEMI DINAMICI A TEMPO CONTINUO. Classificazione dei sistemi dinamici

Equazioni Differenziali

Scuola di Dottorato in Ingegneria L. da Vinci. Problemi di estremo vincolato ed applicazioni. Introduzione ai problemi di estremo

Modelli nello spazio degli stati

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013

ANALISI MATEMATICA 4. Prova scritta del 24 gennaio 2013

Soluzione grafica di problemi PM in 2 variabili

Esonero di Analisi Matematica II (A)

a) Il denominatore dev essere diverso da zero. Studiamo il trinomio x 2 5x + 6. Si ha: x 1,2 = 5 ± se x ], 2[ ]3, + [;

Cognome Nome Matricola Codice ESEMPIO 1

Argomenti delle singole lezioni del corso di Analisi Matematica 2 (Ingegneria Edile-Architettura, A.A )

Corso di laurea: Ingegneria aerospaziale e meccanica Programma di Fondamenti di Analisi Matematica II a.a. 2013/14 Docente: Fabio Paronetto

Equazioni differenziali

Analisi Matematica 1 (Modulo) Prove Parziali A.A. 1999/2008

20. Prodotto di spazi di misura. I teoremi di Tonelli e di Fubini.

Funzione derivabile. La derivata.

PROGRAMMA DI ANALISI MATEMATICA 2 Corsi di Laurea in Ing. Informatica (Prof. Ravaglia) Anno Accademico 2015/16

Esercitazioni di Matematica

ANALISI VETTORIALE COMPITO IN CLASSE DEL 8/11/2013

Elementi di Teoria dei Sistemi

Dinamica di un punto materiale

2 Introduzione ai numeri reali e alle funzioni

Punti di equilibrio: sistemi tempo continui

Corso di Laurea in Ingegneria, Settore Informazione (gruppi 2-3), A.A. 2007/2008 Docente: Antonio Ponno

Programmazione lineare: basi e soluzioni di base

7.5 Il caso vincolato: preliminari

Esercizi proposti 4 (capitolo 8)

Elementi di Teoria dei Sistemi. Definizione di sistema dinamico. Cosa significa Dinamico? Sistema dinamico a tempo continuo

Raggiungibilità, Controllabilità, Osservabilità e Determinabilità

Il filtro di Kalman stazionario e il regolatore LQG

a) Determinare il dominio, i limiti agli estremi del dominio e gli eventuali asintoti di f. Determinare inoltre gli zeri di f e studiarne il segno.

L indice differenziale di una DAE

Fondamenti di Automatica. Unità 3 Equilibrio e stabilità di sistemi dinamici

Argomenti delle singole lezioni del corso di Analisi Matematica 1 (Laurea triennale di Matematica, A.A )

Capitolo 6. Sistemi lineari di equazioni differenziali. 1

La ricerca di punti di estremo assoluto

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

1. Mercoledì 07/03/2018, ore: 2(2) Introduzione e presentazione del corso. Richiami: i numeri naturali, interi, razionali e reali.

Massimi e minimi vincolati

Corso di Laurea in Ingegneria Gestionale - Sede di Fermo Anno Accademico 2009/2010 Matematica 2 Esercizi d esame

Appunti di Matematica 5 - Derivate - Derivate. Considero una funzione e sia e definita in un intorno completo di.

1. Mercoledì 07/03/2018, ore: 2(2) Introduzione e presentazione del corso. Richiami: i numeri naturali, interi, razionali e reali.

SPAZI METRICI COMPLETI

FUNZIONI ELEMENTARI, DISEQUAZIONI, NUMERI REALI, PRINCIPIO DI INDUZIONE Esercizi proposti

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE

Esercizi di Fondamenti di Automatica

Per cominciare, osserviamo che f si ottiene traslando di 2, nella direzione negativa dell asse x, la funzione. g(x) = x e x

Matematica A Corso di Laurea in Chimica. Prova scritta del Tema A

Esercitazione di Analisi Matematica I Esercizi e soluzioni 19/04/2013 TOPOLOGIA

Controlli Automatici I

1) Applicando la definizione di derivata, calcolare la derivata in x = 0 delle funzioni: c) x + 1 d)x sin x.

1. Funzioni implicite

Modellistica dei Sistemi Elettrici

Analisi Vettoriale - A.A Foglio di Esercizi n Esercizio. y [17] + y [15] = 0. z + z = 0

Geometria analitica: rette e piani

ANALISI MATEMATICA 2 A.A. 2015/16

CORSO DI LAUREA IN INFORMATICA ANALISI MATEMATICA I MODULO, I E II MODULO, II MODULO II PROVA SCRITTA DI GENNAIO 2006: SOLUZIONI

Elementi di Teoria dei Sistemi. Definizione di sistema dinamico. Cosa significa Dinamico? Sistema dinamico a tempo continuo

3. CALCOLO DIFFERENZIALE PER FUNZIONI DI UNA VARIABILE REALE.

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo

Consideriamo un sistema dinamico tempo-invariante descritto da:

Teorema delle Funzioni Implicite

Convergenza di martingale - La convergenza in L p, p > 1 equivale alla limitatezza in L p : disuguaglianza per submg non negative; disuguaglianza di

2n n 4 cos(2nt). Allora f è derivabile. Perchè? 2. Si consideri la seguente serie trigonometrica f(t) := (2p.)

Dispense del corso di Analisi II

Registro di Meccanica /13 - F. Demontis 2

PROGRAMMA PROVVISORIO DI ANALISI MATEMATICA 2 INGEGNERIA EDILE -ARCHITETTURA, A.A. 2018/2019 DOCENTE MICHIEL BERTSCH

Proprietà Strutturali dei Sistemi Dinamici: Controllabilità e Raggiungibilità

Modulo di Teoria dei Circuiti

8. Completamento di uno spazio di misura.

Proprietà globali delle funzioni continue

Geometria della programmazione lineare

Operazioni elementari sui sistemi di erenziali

Cognome Nome Matricola Codice ESEMPIO 1

Analisi funzionale. Riccarda Rossi Lezione 2. Spazi normati Definizioni topologiche Continuità Convergenza di successioni Compattezza

Transcript:

Controllo di Sistemi Master in Calcolo Scientifico Italo Capuzzo Dolcetta Dipartimento di Matematica, Università di Roma - La Sapienza March 13, 26 1. Generalità sui sistemi di controllo 2. Controllabilità, osservabilità, stabilizzabilità 2. Il problema di controllo ottimo di Mayer 2.1 Esistenza di soluzioni 2.2 La funzione valore 1

1 Generalità sui sistemi di controllo Un sistema di controllo è una coppia (f, U) dove U è un sottoinsieme di R m e f = (f 1,..., f n ) : R n U R n un funzione continua su R n U. L insieme U è chiamato insieme dei controlli, R n è lo spazio degli stati, il campo vettoriale f è la dinamica. L equazione che governa lo stato del sistema è ẋ(t) = f(x(t), u(t)), t (, + ) (1) x() = x (2) dove x R n è lo stato occupato dal sistema al tempo iniziale e la funzione u : (, + ) U, detta strategia di controllo, è una funzione integrabile secondo Lebesgue. Denoteremo con U l insieme di tali funzioni, osservando che contiene propriamente l insieme U PC formato dalle funzioni continue a tratti definite su (, + ) a valori in U. Una funzione Σ : R n U è una legge di controllo feedback se per ogni x R n esiste un unica soluzione x(t; x, Σ) di ẋ(t) = f (x(t), Σ(x(t))), t (, + ) (3) x() = x (4) Se la funzione t Σ (x(t; x, Σ)) risulta integrabile secondo Lebesgue allora la strategia di controllo u(t) := Σ (x(t; x, Σ)) appartiene alla classe U. Tali strategie di controllo feedback (o, a circuito chiuso) sono di particolare importanza applicativa in quanto la loro esecuzione può essere implementata in modo automatico più facilmente di una generica strategia di controllo. Indicheremo con U F il sottoinsieme di U formato dalle strategie di controllo feedback. Le condizioni di base che assumeremo sui dati sono le seguenti: (C) U è un insieme chiuso e limitato di R m (5) (C1) esiste una costante K 1 > tale che f(x 2, u) f(x 1, u) K 1 x 2 x 1 (6) per ogni x 1, x 2 R n, u U. Osserviamo che la continuità di f, insieme con le condizioni (5) e (6) implicano che la funzione x f(x, u) deve necessariamente essere sublineare, cioè f(x, u) max u U f(, u) + K x, per ogni x R n, u U La teoria delle equazioni differenziali ordinarie assicura, nelle ipotesi fatte, che per ogni scelta di x R n e di u U, esiste un unica funzione y : [, + ) R n che verifica l equazione integrale x(t) = x + f(x(τ), u(τ)) dτ Tale funzione, che denoteremo con x(t; x, u) per evidenziare la dipendenza da x e u verifica ovviamente x(; x, u) = x; è inoltre derivabile quasi ovunque rispetto a t e la sua derivata rispetto a t verifica l equazione differenziale ẋ(t) = f(x(t), u(t)) 2

per quasi ogni t (, + ). Osserviamo esplicitamente che in ogni intervallo (t 1, t 2 ) in cui u è continua la soluzione dell equazione integrale è derivabile rispetto a t e di conseguenza verifica l equazione di stato (1) ad ogni istante t. Si rinvia a [?] per la dimostrazione di questo risultato fondamentale e per gli altri aspetti rilevanti della teoria delle equazioni differenziali ordinarie. La traiettoria del sistema di controllo determinata dallo stato iniziale x e dalla strategia di controllo u U è la curva in R n definita come immagine di [, + ) attraverso la funzione t x(t; x, u). Fissata una strategia di controllo u U, il flusso associato al sistema di controllo (1) è la famiglia Φ u t, parametrizzata da t, formata dalle applicazioni di R n in se definite da Φ u t (x) = x(t; x, u) Raccogliamo nella seguente Proposizione alcune utili proprietà della famiglia Φ u t, ovvero della soluzione del sistema di controllo (1). Proposizione 1. Sia t 1 >. Allora: (i) (limitatezza locale) per ogni r > esiste R > tale che Φ u t (x) R per ogni t [, t 1 ], per ogni u U e per ogni x tale che x < r. (ii) (dipendenza continua dal dato iniziale) esiste c > tale che Φ u t (x) Φ u t (x ) c x x per ogni t [, t 1 ], per ogni u U e per ogni x, x R n (iii) (proprietà di semigruppo) per ogni u U si ha Φ u (x) = x Φ u t+s(x) = Φ u t (Φ u s(x)) per ogni s, t (, + ) e per ogni x R n. Esempio 1. Sistemi lineari I sistemi lineari sono quelli in cui la dinamica dipende linearmente sia dallo stato che dal controllo e quindi f(x, u) = Ax + Bu dove A è una matrice n n e B una matrice n m. Dato che f(x, u) f(x, u ) A x x + B u u, il campo vettoriale f risulta continuo su R n U e l ipotesi (C1) è verificata con K 1 = A. La teoria delle equazioni differenziali ordinarie lineari fornisce anche la seguente formula di rappresentazione per la soluzione x(t; x, u) = e ta x + e ta e τa Bu(τ) dτ 3

In questa formula si è denotata con e σa la matrice esponenziale definita per σ R da e σa = + k= (σ A) k. k! nel caso di sistemi lineari si ha quindi la seguente rappresentazione esplicita del semigruppo associato al sistema di controllo ) Φ u t (x) = e (x ta + e τa Bu(τ) dτ Un caso semplice ma significativo di sistema di controllo lineare è quello in cui A = ; in questo caso particolare x(t; x, u) = Φ u t (x) = x + Bu(τ) dτ. Esempio 2. Sistemi bilineari Una classe importante di sistemi nonlineari è quella dei sistemi bilineari in cui la dinamica è lineare nella variabile di controllo ma non in quella di stato e cioè f(x, u) = Ax + B(x)u con Amatrice n n e B(x)matrice n m dipendente con continuità da x. Se x B(x) è lipschitziana con una certa costante L B, allora si ha f(x, u) f(x, u) = Ax Ax + B(x) B(x ) u ( A + L B u ) x x e quindi l ipotesi (C1) è verificata con K 1 = L B M dove M u per ogni u U (ricordare l ipotesi (C)). Osserviamo che le ipotesi (C) e (C1) implicano che B(x)u) B() u + K 1 x B() M + K 1 x e quindi la restrizione che la crescita all infinito di x B(x) sia al più lineare. Osserviamo anche che nel caso bilineare in questione non è disponibile in generale una formula di rappresentazione per la soluzione dell equazione di stato (1). Per illustrare questo fatto consideriamo l equazione 1- dimensionale ẋ(t) = B(x(t))u(t) dove B : R R e U R. Supponendo che B(z) per ogni z R, si verifica, usando le regole di derivazione delle funzioni composte e della funzione inversa, che la soluzione di dato iniziale x è data dalla formula ( ) x(t; x, u) = B 1 u(s) ds dove B(z) = z 1 dξ. Ovviamente tale formula non è facilmente estendibile al caso in cui x B(ξ) la funzione B(x) non è invertibile in qualche punto x. Osservazione 1. Con riferimento a sistemi bilineari ẋ(t) = Ax(t) + B(x(t))u(t) (7) il termine B(x(t))u(t) ha il significato modellistico di parte controllata della velocità ẋ del sistema in opposizione al termine Ax(t) che rappresenta la parte libera della velocità. 4

Nell ottica della teoria del controllo, il contributo B(x(t))u(t) pu essere scelto, attraverso la scelta di u(t), al fine di realizzare un particolare comportamento delle traiettorie del sistema, per esempio raggiungimento di uno stato x a partire da uno stato x, stabilizzazione ad un punto di equilibrio o ad una traiettoria periodica, eventualmente in aggiunta a proprietà di ottimalità rispetto ad un fissato criterio. Un altro modo di vedere il termine B(x(t))u(t) nel modello è quello di una perturbazione data (nonlineare e globale) del sistema ẋ(t) = Ax(t); in questa ottica si può considerare ad esempio il problema di studiare il comportamento limite per t + del sistema perturbato in relazione al comportamento limite del sistema liberoẋ(t) = Ax(t). Una ulteriore interpretazione del modello (7) si ha quando sull insieme è definita una misura di probabilità ; in questa situazione x(t) è un processo stocastico; problemi di interesse in questo caso riguardano, ad esempio, l esistenza di una soluzione stazionaria (ergodica), la legge dei grandi numeri, proprietà di grandi deviazioni. 2 Controllabilità, osservabilità, stabilizzabilità Consideriamo il sistema di controllo ẋ(t) = f(x(t), u(t)), t (, + ) (8) x() = x (9) nel quadro delle ipotesi della Sezione 1. Il problema della controllabilità può essere formulato come segue: quali punti iniziali x possono essere trasportati in tempo finito in un dato insieme B R n (il bersaglio) da una opportuna traiettoria di (1)? Formalmente, si tratta quindi di determinare l insieme controllabile dove gli insiemi C B (t) sono definiti da C B = t C B (t) C B (t) = {x R n : x(t; x, u) B per qualche u U}. Esempio 3. Consideriamo il sistema di controllo lineare unidimensionale ẋ(t) = x(t) + u(t), U = [ 1, 1] e bersaglio B = {}. Si ha x(t; x, u) = xe t + e t e s u(s)ds =. Se x allora, scegliendo la strategia di controllo u(s) 1 si trova y(t; x, 1) = xe t e t (1 e t) e quindi y(t; x, 1) = se e solo se x = et 1. Analogamente, se x < allora, scegliendo la strategia dil controllo e t u(s) 1 si trova y(t; x, 1) = xe t + e t (1 e t) e quindi y(t; x, 1) = se e solo se x = 1 et. Se e t ne conclude che per ogni t si ha e quindi C {} = [ 1, 1]. C {} (t) = {x R : x = 1 et e t } {x R : x = et 1 e t } 5

Esempio 4. Consideriamo il sistema di controllo bilineare unidimensionale ẋ(t) = x(t)u(t), U = [ 1, 1] e bersaglio B = {}. Dato che x(t; x, u) = xe R t u(s)ds, se x allora x(t; x, u) per ogni t e per ogni u U. Quindi C B (t) = {} per ogni t e pertanto C B = {}. Prendendo invece come bersaglio B = [1, + ) si trova che C B = (, + ). Infatti, per ogni fissato x > si trova, scegliendo il controllo u(s) 1, che x(t; x, u) = xe t = 1 B per t = 1 x. D altra parte, se x < allora x(t; x, u) < per ogni t e per ogni u U. Esempio 5. Consideriamo il sistema lineare in R 2 ẋ(t) = Bu(t)), t (, + ) (1) x() = x (11) ( ) 1 con B =, U = [ 1, 1] [ 1, 1] e bersaglio B = {x R 2 : x 1}. E facile verificare che l insieme C B in questo caso è la striscia {x R 2 : x 2 1}. Nel caso B = ( ) 1 1 si ha invece C B = R 2. Nelle applicazioni si presentano frequentemente situazioni in cui non lo stato del sistema ma solo una sua funzione è osservabile; per modellizzare queste situazioni si considera anzichè il sistema differenziale di controllo (1) il seguente sistema misto ẋ(t) = f(x(t), u(t)), t (, + ) (12) y(t) = h(x(t)) (13) x() = x (14) dove h : R n R p con p n è una funzione data. Due stati iniziali x x per il sistema (12) sono indistinguibili se h(x(t; x, u)) = h(x(t; x, u)) per ogni t [, + ) per ogni u U (dove x(t; x, u) e x(t; x, u) sono, rispettivamente, le soluzioni del sistema di controllo (1) corrispondenti ai dati iniziali x e x ). In altre parole, che lo stato iniziale sia x oppure x 2, l osservazione del sistema è la stessa, qualunque sia la strategia di controllo; in questa situazione non è possibile ricostruire lo stato iniziale dalla conoscenza di h(x(t; x, u)). Un sistema (12) che non ha stati indistinguibili viene detto completamente osservabile. Un caso banale di sistema completamente osservabile è quello in cui p = n e h è invertibile; all estremo opposto si situa il caso in cui h (in questo caso tutti gli stati sono indistinguibili). Una situazione non banale è descritta nel prossimo esempio. 6

Esempio 6. Consideriamo il sistema ẋ 1 (t) = x 2 (t)u(t) (15) ẋ 2 (t) = x 2 (t) (16) y(t) = x 1 (t) (17) x() = x (18) ( ) ( ) Si tratta quindi di un sistema bilineare in R 2 x2 con A =, B(x) = e 1 funzione di osservazione h(x) = x 1. Si ha x(t; x, u) = (x 1 + x 2 u(s)ds, x 2 e t ) e quindi h(x(t)) = x 1 + x 2 es u(s)ds. Se fosse h(x(t; x, u)) = h(x(t; x, u)) per ogni u U si avrebbe, scegliendo u(s), che x 1 = x 1; scegliendo poiu(s) 1 si concluderebbe che t x 2 es ds = x t 2 es ds e quindi che x 2 = x 2. Il sistema considerato è quindi completamente osservabile. Se la funzione di osservazione è invece h(x) = x 2 allora tutte le coppie di stati iniziali del tipo x = (x 1, ), x = (x 1, ) sono indistinguibili perchè h(x(t)) = h(x (t)) =. 3 Il problema di controllo ottimo di Mayer Data una funzione continua g : R n R (il costo finale), consideriamo per ogni (t, x) [, + ) R n il problema min g (x(t; x, u)) (19) u U dove x(t; x, u) è la soluzione di gẋ(s) = f(y(s), u(s)), s (, + ) x() = x Fissati t [, + ) e x R n, l insieme raggiungibile R(t; x) è quello costituito da tutti i punti z R n del tipo z = x(t; x, u) con u U. Il problema (19) può dunque essere riformulato come min g (z) (2) z R(t;x) Una strategia di controllo u U, dipendente dalla scelta di t e x, che realizza il minimo nel problema (19) è un controllo ottimo per il problema di Mayer, la corrispondente traiettoria y (t; x, u ) è una traiettoria ottima. Cominciamo con il risolvere in maniera artigianale un semplice problema di Mayer unidimensionale. Nel paragrafo successivo descriveremo un risultato generale di esistenza di controlli ottimi per il problema (19). Consideriamo dunque il sistema di controllo y (t) = u(t), x() = x R, U = [ a, a], a > ed 7

il problema (19) con g crescente. Dato che x(t; x, u) = x + u(τ) dτ, dalle disuguaglianze x at x(t; x, u) x+at valide per ogni u U, segue facilmente che R(t; x) = [x at, x+at] e quindi essendo g è crescente se ne deduce che min g (z) = min g(z) = g(x at) z R(t;x) z: z x at Qualunque sia il punto iniziale x, la strategia di controllo ottima è quella costante u (s) a. La facilità di soluzione del problema in questo esempio dipende in modo cruciale dal fatto che è stato possibile determinare esplicitamente l insieme raggiungibile. 3.1 Esistenza di controlli ottimi per il problema di Mayer In questo paragrafo si espone un teorema di esistenza di controlli ottimi per il problema di Mayer. Teorema 1. Supponiamo che il sistema di controllo verifichi le condizioni (5) e (6)e che l insieme f(x, U) := {z R n : z = f(x, u), u U} sia convesso per ogni x R n. Supponiamo inoltre g continua. Allora per ogni (t, x) fissati in [, + ) R n esiste un controllo ottimo per il problema (19). Osserviamo che nelle ipotesi fatte su f e U, l insieme f(x, U) è chiuso. Infatti, sia z n = f(x, u n ) con u n U e supponiamo che z n z per n +. Dato che U è compatto esiste una sottosuccessione u nk tale che u nk u U per k + ; per continuità di f ne segue che z nk = f(x, u nk ) f(x, u). D altra parte, z nk z e quindi z = f(x, u) il che prova che z f(x, U). Ciò mostra che f(x, U) è chiuso. E facile verificare che l ipotesi che f(x, U) sia convesso è verificata sia nel caso di sistemi lineari che di sistemi bilineari se l insieme dei controlli U è convesso. La dimostrazione consiste nel provare che l insieme R(t; x) è compatto e nell applicazione successiva del Teorema di Weierstrass. La dimostrazione della compattezza è piuttosto delicata e verrà solo schematicamente descritta. ESEMPIO DI NON ESISTENZA (MACKI.STRAUSS?) Se g è di classe C 1 e R(t; x) è un insieme convesso, allora dalla teoria dell ottimizzazione segue che se z è una soluzione di (2) allora per ogni z R(t; x) si ha Dg(z ) (z z ) Se, inoltre, g è convessa allora la disuguaglianza variazionale z R(t; x) Dg(z ) (z z ) z R(t; x) è equivalente al problema di minimo (2). 8