Online Gradient Descent

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Online Gradient Descent"

Transcript

1 F94 Metodi statistici per l apprendimento Online Gradient Descent Docente: Nicolò Cesa-Bianchi versione 9 aprile 06 L analisi del Perceptrone ha rivelato come sia possibile ottenere dei maggioranti sul numero di errori di classificazione commessi dal Perceptrone su un arbitraria sequenza di dati. Qual è il significato di questo risultato? Nel modello di apprendimento statistico, dove i dati sono generati da un modello probabilistico, il criterio di valutazione di un predittore è il suo rischio statistico. Ma come valutare un classificatore quando i dati sono una sequenza generata da una sorgente arbitraria? Il modello di apprendimento online, che è quello al cui interno abbiamo implicitamente analizzato il Perceptrone, suggerisce il seguente protocollo: dato un algoritmo di apprendimento A per classificazione binaria e data una sequenza arbitraria x, y, x, y,... di dati. L algoritmo genera un modello di partenza w Per t =,,.... Il modello corrente w t viene testato sul prossimo esempio x t, y t. L algoritmo A aggiorna il modello w t generando un nuovo modello w t+ In questo protocollo di predizione sequenziale, l algoritmo genera una sequenza w, w,... di modelli. Le prestazioni vengono valuatate misurando il rischio sequenziale, ovvero la quantità I{y t w t x t 0} che conta, al variare di, la frazione di errori di classificazione compiuta dalla sequenza di modelli sui primi esempi. Il rischio sequenziale sostituisce la nozione di rischio statistico. Come nell apprendimento statistico siamo interessati a studiare quanto velocemente decresce il rischio all aumentare della taglia del training set, così nell apprendimento online siamo interessati a studiare quanto velocemente decresce il rischio sequenziale all aumentare di. Più in generale, possiamo considerare un generico problema di predizione lineare classificazione o regressione con funzione di perdita l. Definiamo la perdita del modello w sull esempio x t, y t come l t w = l w x t, y t. Per esempio lt w = I{y t w t x t 0} in classificazione, con y t {, +}, oppure l t w t = w x t y t in regressione, con yt R. In questo caso più generale valutiamo l algoritmo di predizione tramite il rischio sequenziale, l t w t dove w, w,... è la sequenza di modelli generata all algoritmo che lavora nel protocollo di predizione sequenziale.

2 Introduciamo ora l algoritmo sequenziale di discesa del gradiente, o online gradient descent OGD. Questo algoritmo è in grado di lavorare con una qualunque funzione di perdita convessa l. Per introdurre OGD, ricordiamo che una semplice tecnica per minimizzare una funzione convessa e differenziabile l : R d R è la discesa del gradiente. A partire da un punto arbitrario w, la discesa del gradiente applica ripetutamente la seguente operazione: w t+ = w t η lw t, dove η > 0 è un parametro. Se il punto corrente w t non è un minimo della funzione, allora lw t > 0 e quindi w t+ si sposterà in direzione del minimo della funzione. La teoria dell ottimizzazione convessa spiega quanto velocemente la discesa del gradiente minimizza una funzione convessa rispetto al grado di convessità della funzione stessa. Per analizzare OGD, dobbiamo studiare la discesa del gradiente nel caso in cui la funzione l da minimizzare cambi ad ogni passo, con una sequenza l, l,... ignota a priori. Ecco una descrizione dell algoritmo OGD con proiezione. Qui e nel seguito, assumiamo che l, l,... sia una sequenza di funzioni di perdita convesse e due volte differenziabili. Algoritmo OGD con proiezione Parametri: costante η, raggio U > 0 Inizializzazione: w = 0 Per t =,,.... w t+ = w t η t l t w t. w t+ = argmin w w t+ w : w U Nel passo, proiettiamo w t+ in una sfera Euclidea di raggio U. Se w t+ U, allora w t+ = w t+. Sia η t = η / t, dove η è un parametro dell algoritmo. L analisi dell algoritmo utilizza il teorema seguente. Lemma Formula di aylor per funzioni multivariate Sia f : R d R una funzione due volte differenziabile. Allora, per ogni w, u R d vale fu = fw + fw u w + u w fξu w dove fξ è la matrice Hessiana di f calcolata in un punto ξ sulla retta che congiunge u a w. Scopo dell analisi è limitare la differenza fra il rischio sequenziale dell algoritmo e quello di un qualsiasi modello u tale che u U. Ovvero, vogliamo controllare la differenza l t w t l t u. Fissiamo quindi u arbitrario con norma limitata da U e notiamo che, ad ogni istante t, il teorema di aylor implica l t w t l t u = l t w t w t u u w t l t ξu w t l t w t w t u.

3 La disuguaglianza vale perché stiamo assumendo che l t sia due volte differenziabile e convessa, il che implica che la matrice l t ξ sia positiva semidefinita. Quindi z l t ξz 0 per ogni z R d. Possiamo quindi procedere maggiorando la quantità l t w t w t u, l t w t w t u = w t+ w t w t u η t = η t w t u w t+ u + w t+ w t η t w t u w t+ u + w t+ w t. La prima uguaglianza usa il fatto che w t+ w t = η t l t w t. La seconda è un identità algebrica che si verifica rapidamente facendo i conti. Infine la disuguaglianza vale perché u appartiene alla sfera di raggio U centrata sull origine, e quindi proiettando w t+ su questa sfera la distanza con u non può aumentare. Ora aggiungiamo e togliamo lo stesso termine η t+ w t+ u all ultimo membro della catena di disuguaglianze mostrata sopra. Poi raggruppiamo i termini come indicato qua sotto w t u w t+ u η t η } {{ t+ } w t+ u + w t+ u η t η } {{ t+ } + η t w t+ w t. Sommando su t =,..., notiamo che i primi due termini sono una somma telescopica, mentre i secondi due termini hanno un fattore comune, l t w t l t u + Ora usiamo i seguenti fatti: η w u w + u η + w t+ u + η t+ η t η t w t+ w t. w = 0 w t+ u 4U w t+ w t = η t l t w t per definizione di OGD dato che sia w t+ che u appartengono alla sfera di raggio U per definizione di OGD. Sostituendo queste relazioni nell ultima disuguaglianza e scegliendo G tale che l t w t G per ogni t, otteniamo l t w t l t u U η w + u η + + U + w + u w + u + G η t+ η t η + η η t. 3

4 Ora semplifichiamo la somma telescopica, cancelliamo i termini con segno opposto e maggioriamo omettendo il termine η w + u, l t w t l t u U η + U U η η U η + G η + G η t U η + G η t dove abbiamo usato la maggiorazione t. Scegliendo η = U / G e dividendo tutto per otteniamo il risultato finale l t w t min u : u U 8 l t u + UG. 3 Una maniera per interpretare il risultato appena ottenuto è la seguente. Sia u = argmin u : u U il miglior predittore per i primi passi. Allora l t w t l t u l t u = O ovvero il rischio sequenziale di OGD converge alla perdita media del predittore ottimo u. per È possibile ottenere un valore esplicito per G facendo assunzioni particolari. Per esempio, l t w = w x t y t, ovvero regressione con funzione di perdita quadratica. Assumendo xt X e y t UX per ogni t, possiamo calcolare l t w t w x t y t x t w t x t + y t x t 4UX. Sostituendo questo valore di G nel maggiorante precedente otteniamo l t w t min u : u U l t u + 8UX. Notiamo ora che possiamo esprimere l algoritmo del Perceptrone come un caso particolare di OGD. Infatti, possiamo scrivere la regola di aggiornamento del Perceptrone come discesa del gradiente su una particolare funzione di perdita chiamata hinge loss: h t w = [ y t w x t ]+, dove 4

5 Figura : La hinge loss hz = [ z] + in rosso è un maggiorante convesso alla funzione di perdita zero-uno lz = I{z 0} errore di classificazione binaria, in blu. [z] + = max{0, z}. Questa funzione è convessa e maggiora la funzione indicatrice di errore, ovvero I{z 0} [ z] + per ogni z R si veda la Figura. Il gradiente della hinge loss è facilmente calcolato come { yt x h t w = t se y t w x t 0 otherwise. Si noti che [ z] + non è differenziabile in z =, ma l analisi funziona scegliendo un qualsiasi valore fra e 0 come valore della derivata di [ z] + in. Per definire il Perceptrone come istanza di OGD dobbiamo aggiungere la condizione che l aggiornamento venga fatto solo quando il modello corrente w t sbaglia a classificare x t, y t, w t+ = w t η t h t w t I{y t w t x t 0} = w t + η t y t x t I{y t w t x t 0}. 4 Dato che w t cambia solo quando y t w t x t 0, possiamo applicare l analisi di OGD ai soli passi t dove w t sbaglia, cioè ai passi t dove y t w t x t 0. Inoltre, scegliamo η t = η per ogni t e omettiamo la proiezione di w t+ nella sfera di raggio U, cioè poniamo w t+ = w t+. La disuguaglianza, omettendo il termine negativo η w + u, ci dà h t w t h t u I{y t w t x t 0} η u + w t+ u η I{y t w t x t 0} + ηg η I{y t w t x t 0} per un qualunque u R d. Si noti che i termini della prima sommatoria nel membro destro della disuguaglianza sono tutti pari a zero e questo è il motivo per cui possiamo evitare le proiezioni. Quindi, dato che y t w t x t 0 implica h t w t, e ponendo X = max t x t = max t h t w t così da avere X = G, otteniamo I{y t w t x t 0} h t u + η u + ηx I{y t w t x t 0}. 5

6 Sia M = I{y tw t x t 0} il numero di errori compiuti dal Perceptrone nei primi passi. Scegliendo η = u / X M, risolvendo per M e maggiorando otteniamo M h t u + u X + u X h t u. Questo è il maggiorante al numero di errori del Perceptrone nel caso generale sequenze non linearmente separabili. Si noti che quando la sequenza è linearmente separabile, allora esiste u R d tale che y t u x t per ogni t, il che implica h t u = 0 per ogni t. Quindi il maggiorante si riduce a M u X che corrisponde al teorema di convergenza del Perceptrone. OGD con hinge loss ha però alcune differenze rispetto al Perceptrone. Per prima cosa, mentre nel Perceptrone η =, qui η dev essere scelto in base a u, X e M. In realtà questa differenza è fittizia. Infatti, come si nota dalla regola 4 di aggiornamento, il peso w t ha la forma t w t = η y s x s I{y s w s x s 0}. s= Dato che la predizione è sgn w t x t, il valore di η > 0 è completamente ininfluente. In altre parole, l algoritmo eseguito con η = e quello eseguito con η = u / X M hanno esattamente lo stesso comportamento. Quindi possiamo assumere senza perdita di generalità che l algoritmo venga eseguito con η =, come il Perceptrone. Il maggiorante 3 vale per qualunque sequenza l, l,... di funzioni di perdita convesse, quindi anche funzioni lineari, per esempio l t w = y t w x t per x t R d e y t R. È possibile dimostrare che se le funzioni di perdita sono effettivamente tutte lineari, non è possibile migliorare 3. Ma cosa succede se invece le funzioni di perdita sono convesse e mai piatte? Per definire questa situazione ricorriamo alla nozione di convessità forte. Una funzione differenziabile l è σ-fortemente convessa, per un dato σ > 0, se lw lu lw w u σ u w. Equivalentemente, possiamo dire che la matrice Hessiana di l ha rango pieno, oppure che ha gli autovalori tutti strettamente maggiori di zero. Un semplice esempio di funzione fortemente convessa è lw = w. Infatti, w u = w w u w u Quindi la funzione è fortemente convessa per σ =. L algoritmo OGD per funzioni fortemente convesse non ha bisogno del passo di proiezione ed è quindi completamente privo di parametri. 6

7 Algoritmo OGD senza proiezione per funzioni fortemente convesse Inizializzazione: w = 0 Per t =,,.... w t+ = w t η t l t w t Per l analisi, ripetiamo il passo dell analisi di OGD sfruttando l assunzione che l, l,... sono tutte funzioni σ-fortemente convesse, l t w t l t u l t w t w t u σ u w t = η t w t+ w t w t u σ u w t η t w t u w t+ u + w t+ w t σ u w t. Procedendo in modo completamente analogo al caso di OGD con proiezione, ma sfruttando la presenza dei termini aggiuntivi σ u w t otteniamo l t w t l t u + η σ w u w + u η + w t+ u σ + w + u + G η t+ η t η + η dove, analogamente a prima, G max t l t w t. Omettendo il termine negativo η w + u, semplificando il termine η + w + u che appare con segni opposti e utilizzando la scelta η t = σt, osserviamo alcune ulteriori sorprendenti semplificazioni che ci conducono a η t l t w t l t u G σ t G ln + σ dove abbiamo usato un semplice maggiorante logaritmico alla somma armonica Questo implica il risultato finale l t w t min u R d l t u + G ln + σ Possiamo confrontare il rischio sequenziale appena dimostrato per le funzioni di perdita fortemente convesse con quello ottenuto in 3 per le funzioni semplicemente convesse.. 7

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere

Dettagli

Note sulle funzioni convesse/concave

Note sulle funzioni convesse/concave Note sulle funzioni convesse/concave 4th December 2008 1 Definizioni e proprietà delle funzioni convesse/concave. Definizione 1.1 Un insieme A IR n è detto convesso se per ogni x 1 e x 2 punti di A, il

Dettagli

Risoluzione di sistemi lineari sparsi e di grandi dimensioni

Risoluzione di sistemi lineari sparsi e di grandi dimensioni Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica

Dettagli

Parte V: Rilassamento Lagrangiano

Parte V: Rilassamento Lagrangiano Parte V: Rilassamento Lagrangiano Tecnica Lagrangiana Consideriamo il seguente problema di Programmazione Lineare Intera: P 1 min c T x L I Ax > b Cx > d x > 0, intera in cui A = matrice m x n C = matrice

Dettagli

Le derivate parziali

Le derivate parziali Sia f(x, y) una funzione definita in un insieme aperto A R 2 e sia P 0 = x 0, y 0 un punto di A. Essendo A un aperto, esiste un intorno I(P 0, δ) A. Preso un punto P(x, y) I(P 0, δ), P P 0, possiamo definire

Dettagli

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria. Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo

Dettagli

Le condizioni di Karush-Kuhn-Tucker

Le condizioni di Karush-Kuhn-Tucker Capitolo 9 Le condizioni di Karush-Kuhn-Tucker 9. Introduzione In questo capitolo deriveremo le condizioni necessarie di Karush-Kuhn-Tucker (KKT) per problemi vincolati in cui S è descritto da vincoli

Dettagli

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III) Derivazione numerica Introduzione al calcolo numerico Il calcolo della derivata di una funzione in un punto implica un processo al limite che può solo essere approssimato da un calcolatore. Supponiamo

Dettagli

NOME:... MATRICOLA:... Corso di Laurea in Fisica, A.A. 2009/2010 Calcolo 1, Esame scritto del 19.01.2010

NOME:... MATRICOLA:... Corso di Laurea in Fisica, A.A. 2009/2010 Calcolo 1, Esame scritto del 19.01.2010 NOME:... MATRICOLA:.... Corso di Laurea in Fisica, A.A. 009/00 Calcolo, Esame scritto del 9.0.00 Data la funzione fx = e /x x x +, a determinare il dominio massimale di f ; b trovare tutti gli asintoti

Dettagli

Sistemi di equazioni lineari

Sistemi di equazioni lineari Sistemi di equazioni lineari I sistemi di equazioni si incontrano in natura in molti problemi di vita reale. Per esempio, prendiamo in considerazione una bevanda a base di uova, latte e succo d arancia.

Dettagli

FUNZIONE DI UTILITÀ CURVE DI INDIFFERENZA (Cap. 3)

FUNZIONE DI UTILITÀ CURVE DI INDIFFERENZA (Cap. 3) FUNZIONE DI UTILITÀ CURVE DI INDIFFERENZA (Cap. 3) Consideriamo un agente che deve scegliere un paniere di consumo fra quelli economicamente ammissibili, posto che i beni di consumo disponibili sono solo

Dettagli

Esercizi su ottimizzazione vincolata

Esercizi su ottimizzazione vincolata Esercizi su ottimizzazione vincolata 1. Rispondere alle seguenti domande (a) Quando un vincolo di disuguaglianza è detto attivo? (b) Cosa è l insieme delle soluzioni ammissibili? Gli algoritmi di ricerca

Dettagli

Analisi Matematica 3/Analisi 4 - SOLUZIONI (20/01/2016)

Analisi Matematica 3/Analisi 4 - SOLUZIONI (20/01/2016) Corso di Laurea in Matematica Docente: Claudia Anedda Analisi Matematica 3/Analisi 4 - SOLUZIONI (//6) ) i) Dopo averla classificata, risolvere l equazione differenziale tẋ x = t cos(t), t >. ii) Scrivere

Dettagli

Disequazioni - ulteriori esercizi proposti 1

Disequazioni - ulteriori esercizi proposti 1 Disequazioni - ulteriori esercizi proposti Trovare le soluzioni delle seguenti disequazioni o sistemi di disequazioni:. 5 4 >. 4. < 4. 4 9 5. 9 > 6. > 7. < 8. 5 4 9. > > 4. < 4. < > 9 4 Non esitate a comunicarmi

Dettagli

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima.

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima. 2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima. 3. Fra tutti i cilindri a base rotonda inscritti in una sfera, determinare quello di volume massimo. 4. Dimostrare

Dettagli

Matroidi, algoritmi greedy e teorema di Rado

Matroidi, algoritmi greedy e teorema di Rado Matroidi, algoritmi greedy e teorema di Rado per il corso di Laboratorio di Algoritmi e Ricerca Operativa Dott. Alberto Leporati / Prof.ssa Enza Messina Dipartimento di Informatica, Sistemistica e Comunicazione

Dettagli

Prova scritta di Geometria 1 Docente: Giovanni Cerulli Irelli 20 Gennaio 2017

Prova scritta di Geometria 1 Docente: Giovanni Cerulli Irelli 20 Gennaio 2017 Prova scritta di Geometria Docente: Giovanni Cerulli Irelli Gennaio 7 Esercizio. Si considerino i seguenti tre punti dello spazio euclideo: P :=, Q :=, R :=.. Dimostrare che P, Q ed R non sono collineari.

Dettagli

Esercizi sulla Programmazione Lineare. min. cx Ax b x 0

Esercizi sulla Programmazione Lineare. min. cx Ax b x 0 Soluzioni 4.-4. Fondamenti di Ricerca Operativa Prof. E. Amaldi Esercizi sulla Programmazione Lineare 4. Risoluzione grafica e forma standard. Si consideri il problema min x cx Ax b x dove x = (x, x )

Dettagli

Esercizi svolti. Geometria analitica: rette e piani

Esercizi svolti. Geometria analitica: rette e piani Esercizi svolti. Sistemi di riferimento e vettori. Dati i vettori v = i + j k, u =i + j + k determinare:. il vettore v + u ;. gli angoli formati da v e u;. i vettore paralleli alle bisettrici di tali angoli;

Dettagli

L insieme dei numeri Relativi (Z)

L insieme dei numeri Relativi (Z) L insieme dei numeri Relativi (Z) L esigenza dei numeri relativi Due precise situazioni ci spingono ad ampliare l'insieme de numeri naturali (N): una di carattere pratico, un'altra di carattere più teorico.

Dettagli

Programmazione Non Lineare

Programmazione Non Lineare Capitolo 1 Programmazione Non Lineare 1.1 Introduzione Un problema di ottimizzazione viene definito come la minimizzazione o la massimizzazione di una funzione a valori reali su un insieme specificato.

Dettagli

QUANTITA DI MOTO Corso di Fisica per Farmacia, Facoltà di Farmacia, Università G. D Annunzio, Cosimo Del Gratta 2006

QUANTITA DI MOTO Corso di Fisica per Farmacia, Facoltà di Farmacia, Università G. D Annunzio, Cosimo Del Gratta 2006 QUANTITA DI MOTO DEFINIZIONE(1) m v Si chiama quantità di moto di un punto materiale il prodotto della sua massa per la sua velocità p = m v La quantità di moto è una grandezza vettoriale La dimensione

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

4 0 = 4 2 = 4 4 = 4 6 = 0.

4 0 = 4 2 = 4 4 = 4 6 = 0. Elementi di Algebra e Logica 2008. Esercizi 4. Gruppi, anelli e campi. 1. Determinare la tabella additiva e la tabella moltiplicativa di Z 6. (a) Verificare dalla tabella moltiplicativa di Z 6 che esistono

Dettagli

ALGEBRA VETTORIALE Corso di Fisica per la Facoltà di Farmacia, Università Gabriele D Annunzio, Chieti-Pescara, Cosimo Del Gratta 2008

ALGEBRA VETTORIALE Corso di Fisica per la Facoltà di Farmacia, Università Gabriele D Annunzio, Chieti-Pescara, Cosimo Del Gratta 2008 LGER VETTORILE DEFINIZIONE DI VETTORE (1) Sia E lo spazio tridimensionale della geometria euclidea. Consideriamo due punti e appartenenti a E Si chiama segmento orientato, e si indica con (,) il segmento

Dettagli

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k

Dettagli

ANALISI MATEMATICA II Sapienza Università di Roma - Laurea in Ingegneria Informatica Esame del 16 febbraio 2016 - Soluzioni compito 1

ANALISI MATEMATICA II Sapienza Università di Roma - Laurea in Ingegneria Informatica Esame del 16 febbraio 2016 - Soluzioni compito 1 ANALISI MATEMATICA II Sapienza Università di Roma - Laurea in Ingegneria Informatica Esame del 6 febbraio 206 - Soluzioni compito E Calcolare, usando i metodi della variabile complessa, il seguente integrale

Dettagli

Sviluppi e derivate delle funzioni elementari

Sviluppi e derivate delle funzioni elementari Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim

Dettagli

La codifica digitale

La codifica digitale La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore

Dettagli

Analisi Matematica 1 e Matematica 1 Geometria Analitica: Rette

Analisi Matematica 1 e Matematica 1 Geometria Analitica: Rette Analisi Matematica 1 e Matematica 1 Geometria Analitica: Rette Annalisa Amadori e Benedetta Pellacci [email protected] [email protected] Università di Napoli Parthenope Contenuti Nel Piano

Dettagli

LEZIONE 10. S(C,ρ) Figura 10.1

LEZIONE 10. S(C,ρ) Figura 10.1 LEZIONE 10 10.1. Sfere nello spazio. In questa lezione studieremo alcuni oggetti geometrici non lineari, circonferenze e sfere nello spazio A 3. Poiché le proprietà delle circonferenze nel piano sono del

Dettagli

Correlazione. Daniela Valenti, Treccani Scuola 1

Correlazione. Daniela Valenti, Treccani Scuola 1 Correlazione 1 I dati di un indagine per riflettere Cominciamo con i dati di un indagine svolta in una quinta classe di scuola superiore. Dopo l Esame di Stato 12 studenti si sono iscritti a corsi di laurea

Dettagli

CINEMATICA DEL PUNTO MATERIALE: MOTI RETTILINEI E INTRODUZIONE AL MOTO IN PIÙ DIMENSIONI PROF. FRANCESCO DE PALMA

CINEMATICA DEL PUNTO MATERIALE: MOTI RETTILINEI E INTRODUZIONE AL MOTO IN PIÙ DIMENSIONI PROF. FRANCESCO DE PALMA CINEMATICA DEL PUNTO MATERIALE: MOTI RETTILINEI E INTRODUZIONE AL MOTO IN PIÙ DIMENSIONI PROF. FRANCESCO DE PALMA Sommario INTRODUZIONE ALLA CINEMATICA... 3 MOTO RETTILINEO UNIFORMEMENTE ACCELERATO...

Dettagli

Massimi e minimi relativi in R n

Massimi e minimi relativi in R n Massimi e minimi relativi in R n Si consideri una funzione f : A R, con A R n, e sia x A un punto interno ad A. Definizione: si dice che x è un punto di massimo relativo per f se B(x, r) A tale che f(y)

Dettagli

Matematica per le Applicazioni Economiche I (M-P)

Matematica per le Applicazioni Economiche I (M-P) Matematica per le Applicazioni Economiche I (M-P) Corsi di Laurea in Economia Aziendale, Economia e Commercio, a.a. 06-7 Esercizi su Calcolo Differenziale. Per la seguente funzione, dato 0, si utilizzi

Dettagli

m = a k n k + + a 1 n + a 0 Tale scrittura si chiama rappresentazione del numero m in base n e si indica

m = a k n k + + a 1 n + a 0 Tale scrittura si chiama rappresentazione del numero m in base n e si indica G. Pareschi COMPLEMENTI ED ESEMPI SUI NUMERI INTERI. 1. Divisione con resto di numeri interi 1.1. Divisione con resto. Per evitare fraintendimenti nel caso in cui il numero a del Teorema 0.4 sia negativo,

Dettagli

Appunti di Elettronica I Lezione 3 Risoluzione dei circuiti elettrici; serie e parallelo di bipoli

Appunti di Elettronica I Lezione 3 Risoluzione dei circuiti elettrici; serie e parallelo di bipoli Appunti di Elettronica I Lezione 3 Risoluzione dei circuiti elettrici; serie e parallelo di bipoli Valentino Liberali Dipartimento di Tecnologie dell Informazione Università di Milano, 2603 Crema email:

Dettagli

Convergenza non condizionata

Convergenza non condizionata Economia Internazionale Economia dello Sviluppo Lezione 5 La convergenza nelle dinamiche di crescita A.A 2007-2008 Stefano Usai Convergenza non L ipotesi di convergenza non e basata sull assunzione che

Dettagli

Polinomio di Taylor del secondo ordine per funzioni di due variabili

Polinomio di Taylor del secondo ordine per funzioni di due variabili Esercitazioni del 15 aprile 2013 Polinomio di Taylor del secondo ordine per funzioni di due variabili Sia f : A R 2 R una funzione di classe C 2. Fissato un p unto (x 0, y 0 A consideriamo il seguente

Dettagli

1.5 DIVISIONE TRA DUE POLINOMI

1.5 DIVISIONE TRA DUE POLINOMI Matematica C Algebra. Le basi del calcolo letterale.5 Divisione tra due polinomi..5 DIVISIONE TRA DUE POLINOMI Introduzione Ricordiamo la divisione tra due numeri, per esempio 47:4. Si tratta di trovare

Dettagli

DAC Digital Analogic Converter

DAC Digital Analogic Converter DAC Digital Analogic Converter Osserviamo lo schema elettrico riportato qui a lato, rappresenta un convertitore Digitale-Analogico a n Bit. Si osservino le resistenze che di volta in volta sono divise

Dettagli

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI 3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI ESISTENZA DI UN PUNTO DI OTTIMO VINCOLATO Il problema di ottimizzazione vincolata introdotto nel paragrafo precedente può essere formulato nel modo seguente:

Dettagli

I RADICALI QUADRATICI

I RADICALI QUADRATICI I RADICALI QUADRATICI 1. Radici quadrate Definizione di radice quadrata: Si dice radice quadrata di un numero reale positivo o nullo a, e si indica con a, il numero reale positivo o nullo (se esiste) che,

Dettagli

4.11 Massimi e minimi relativi per funzioni di più variabili

4.11 Massimi e minimi relativi per funzioni di più variabili 5. Determinare, al variare del parametro a R, la natura delle seguenti forme quadratiche: (i) Φ(x, y, z) = x 2 + 2axy + y 2 + 2axz + z 2, (ii) Φ(x, y, z, t) = 2x 2 + ay 2 z 2 t 2 + 2xz + 4yt + 2azt. 4.11

Dettagli

Forme quadratiche in R n e metodo del completamento dei quadrati

Forme quadratiche in R n e metodo del completamento dei quadrati Chapter 1 Forme quadratiche in R n e metodo del completamento dei quadrati Ricordiamo che a determinare il tipo (definita positiva o negativa, semidefinita positiva o negativa, indefinita) di una forma

Dettagli

1 IL LINGUAGGIO MATEMATICO

1 IL LINGUAGGIO MATEMATICO 1 IL LINGUAGGIO MATEMATICO Il linguaggio matematico moderno è basato su due concetti fondamentali: la teoria degli insiemi e la logica delle proposizioni. La teoria degli insiemi ci assicura che gli oggetti

Dettagli

Anno 5 Regole di derivazione

Anno 5 Regole di derivazione Anno 5 Regole di derivazione 1 Introduzione In questa lezione mostreremo quali sono le regole da seguire per effettuare la derivata di una generica funzione. Seguendo queste regole e conoscendo le derivate

Dettagli