Algoritmi e Strutture Dati
|
|
|
- Gina Martina
- 9 anni fa
- Просмотров:
Транскрипт
1 Analisi Asintotica Maria Rita Di Berardini, Emanuela Merelli 1 1 Dipartimento di Matematica e Informatica Università di Camerino
2 Un graduale processo di astrazione Passo 1: abbiamo ignorato il costo effettivo delle singole istruzioni introducendo delle costanti per rappresentare i loro (ad esempio le costanti c 1,..., c 7 nel caso dell insertion sort) Passo 2: ci siamo resi conto che anche queste costanti forniscono dettagli non necessari il tempo di esecuzione dell insertion sort nel caso peggiore è an 2 + bn + c, dove a, b e c sono altre costanti che dipendono dai costi c i Passo 3: un ulteriore passo di astrazione consiste nel considerare l ordine di grandezza o tasso di crescita del tempo di esecuzione
3 Un graduale processo di astrazione Costo in microsecondi Costanti c i Costanti a, b e c an 2 +bn+c Ordine di grandezza: quadratico
4 Analisi Asintotica Supponiamo che il tempo necessario a completare un algoritmo sia T (n) = 4n 2 2n + 2 Per grandi valori di n, il termine 4n 2 è preponderante rispetto agli altri, che potranno non essere considerati per esempio, per n pari a 500, il termine 4n 2 = è pari a 1000 volte il termine 2n = 1000 Anche i coefficienti diventano irrilevanti se compariamo T (n) con una funzione di ordine superiore, come n 3 oppure 2 n Anche se T (n) = n 2, U(n) = n 3 sarà maggiore di T (n) per ogni n maggiore di (T ( ) = = U( ))
5 Analisi Asintotica Astraiamo da alcuni dettagli irrilevanti (ex: termini di ordine diverso, costanti moltiplicative) e ci interessiamo solo al tasso di crescita; analizziamo come il tempo di esecuzione cresce asintoticamente in funzione della dimensione dell input Obiettivo semplificare l analisi del tempo di esecuzione di un algoritmo (proprio perchè presciamo da dettagli non rilevanti) classificare le funzioni in base al loro comportamento asintotico Asintoticamente non significa per tutti gli input un algoritmo asintoticamente più efficiente di un altro sarà migliore pet tutti gli input tranne, eventualmente, per quelli molto piccoli
6 Analisi Asintotica Per determinare la il comportamento asintotico degli algoritmi importiamo alcune notazioni dalla matematica: O (o grande): ci consente di fornire delle delimitazioni superiori alla complessità di un algoritmo Ω (omega grande): fornisce delle delimitazione inferiori Θ (theta grande): fornisce delle delimitazioni strette, sia superiori che inferiori
7 la notazione o grande Analisi Asintotica O grande Omega grande Theta grande Definizione (la notazione O grande) Siano f, g : N R 0. Diciamo che f (n) = O(g(n)) se due costanti c, n 0 > 0 tali che 0 f (n) cg(n) per ogni n n 0 graficamente...
8 Graficamente Analisi Asintotica O grande Omega grande Theta grande
9 O grande Omega grande Theta grande Se f (n) = O(g(n)) allora g(n) è un limite asintotico superiore per f (n); f (n), a meno di un fattore costante, cresce al più come g(n) Ex: il limite superiore per la ricerca in un array non ordinato è O(n) O viene usata nell analisi del costo computazionale nel caso pessimo O(g(n)) è in realtà l insieme di funzioni definito come: O(g(n)) = {f (n) delle costanti c, n 0 > 0 tali che 0 f (n) cg(n) per ogni n n 0 } Scrivere f (n) = O(g(n)) è un abuso di notazione; avremmo dovuto scrivere f (n) O(g(n))
10 O grande Omega grande Theta grande Provare che f (n) = 3n n = O(n 2 ) Dobbiamo dimostrare l esistenza di costanti positive c ed n 0 tali che 0 f (n) cn 2 per ogni n n 0 Poichè : basta scegliere c = 13 e n 0 = 1 3n n per ogni n 1 3n n 2 = 13n 2
11 Vero o falso n 2 = O(n)? O grande Omega grande Theta grande Chiaramente è falsa: n non può essere un limite superiore per n 2. Lo dimostriamo per assurdo. Se n 2 = O(n), allora devono esistere delle costanti c, n 0 > 0 tali che ossia (dividendo tutto per n) 0 n 2 cn per ogni n n 0 0 n c per ogni n n 0 il che è impossibile visto che c è una costante
12 O grande Omega grande Theta grande Classi di complessità asintotica degli algoritmi T (n) = O(1): complessità costante (cioè T (n) non dipende dalla dimensione n dei dati di ingresso) T (n) = O(log n): complessità logaritmica. T (n) = O(n): complessità lineare. T (n) = O(n log n): complessità pseudolineare (così detta da n log n = O(n 1+ɛ ) per ogni ɛ > 0 T (n) = O(n 2 ): complessità quadratica T (n) = O(n 3 ): complessità cubica T (n) = O(n k ), k > 0: complessità polinomiale T (n) = O(α n ), α > 1: complessità esponenziale
13 la notazione Omega grande O grande Omega grande Theta grande Definition (la notazione Ω) Siano f, g : N R 0. Diciamo che f (n) = Ω(g(n)) se due costanti c, n 0 > 0 tali che 0 cg(n) f (n) per ogni n n 0 graficamente...
14 Graficamente Analisi Asintotica O grande Omega grande Theta grande
15 la notazione Ω grande O grande Omega grande Theta grande Se f (n) = Ω(g(n)) allora g(n) è un limite asintotico inferiore per f (n); f (n), a meno di un fattore costante, cresce almeno come g(n) Esempio: il limite inferiore per la ricerca in un array non ordinato è Ω(1) Ω viene usata nell analisi del costo computazionale nel caso ottimo Ω(g(n)) rappresenta l insieme di funzioni definito come: Ω(g(n)) = {f (n) delle costanti positive c ed n 0 tali che 0 cg(n) f (n) per ogni n n 0 } Di nuovo, scrivere f (n) = Ω(g(n)) è un abuso di notazione; avremmo dovuto scrivere f (n) Ω(g(n))
16 O grande Omega grande Theta grande Provare che f (n) = 3n n = Ω(n 2 ) Dobbiamo dimostrare l esistenza di costanti positive c ed n 0 tali che 0 cn 2 f (n) per ogni n n 0 Basta scegliere c = 3 e n 0 = 1; infatti: 3n n 3n 2 per ogni n n 0 = 1
17 Vero o falso n 2 = Ω(n 3 )? O grande Omega grande Theta grande Chiaramente è falsa: n 3 non può essere un limite inferiore per n 2. Lo dimostriamo per assurdo. Se n 2 = Ω(n 3 ), allora esistono delle costanti positive c ed n 0 tali che 0 cn 3 n 2 per ogni n n 0 ossia tali che (dividendo tutto per n 3 ) 0 c 1 n per ogni n n 0 il che è impossibile visto che c è una costante
18 la notazione Θ grande O grande Omega grande Theta grande Definizione (la notazione Θ (theta) grande) Siano f, g : N R 0. Diciamo che f (n) = Θ(g(n)) se delle costanti c 1, c 2, n 0 > 0 tali che 0 c 1 g(n) f (n) c 2 g(n) per ogni n n 0 graficamente...
19 la notazione Θ grande O grande Omega grande Theta grande
20 la notazione Θ grande O grande Omega grande Theta grande Se f (n) = Θ(g(n)) allora g(n) è un limite asintotico stretto per f (n); f (n), a meno di un fattore costante, cresce esattamente come g(n) Θ(g(n)) rappresenta l insieme di funzioni definito come: Θ(g(n)) = {f (n) costanti positive c 1, c 2 ed n 0 tali che 0 c 1 g(n) f (n) c 2 g(n) per ogni n n 0 } Scrivere f (n) = Θ(g(n)) è un abuso di notazione
21 O grande Omega grande Theta grande Provare che f (n) = 3n n = Θ(n 2 ) Theorem Per ogni coppia di funzioni f (n) e g(n), si ha che f (n) = Θ(g(n)) iff f (n) = O(g(n)) e f (n) = Ω(g(n))
22 O grande Omega grande Theta grande Provare che f (n) = 3n n = Θ(n 2 ) Theorem Per ogni coppia di funzioni f (n) e g(n), si ha che f (n) = Θ(g(n)) iff f (n) = O(g(n)) e f (n) = Ω(g(n)) Abbiamo dimostrato che f (n) = O(n 2 ) e f (n) = Ω(n 2 ). Questo basta per concludere che f (n) = Θ(n 2 )
23 Alcune utili proprietà Analisi Asintotica O grande Omega grande Theta grande Transitività f (n) = O(g(n)) e g(n) = O(h(n)) = f (n) = O(h(n)) f (n) = Ω(g(n)) e g(n) = Ω(h(n)) = f (n) = Ω(h(n)) f (n) = Θ(g(n)) e g(n) = Θ(h(n)) = f (n) = Θ(h(n)) Riflessività Simmetria f (n) = O(f (n)) f (n) = Ω(f (n)) f (n) = Θ(f (n)) f (n) = Θ(g(n)) iff g(n) = Θ(f (n)) Simmetria trasposta f (n) = O(g(n)) iff g(n) = Ω(f (n))
24 Le notazioni o piccolo ed ω piccolo Siano f, g : N R 0. Diciamo che f (n) = o(g(n)) se per ogni costante c > 0 esiste n 0 > 0 tale che 0 f (n) < cg(n) per ogni n n 0 Le definizioni di O ed o sono molto simili: nella prima, la condizione 0 f (n) cg(n) vale per un qualche c > 0 nella seconda, 0 f (n) < cg(n) vale per ogni c > 0 f (n) = o(g(n)) implica f (n) = O(g(n)) Il concetto intuitivo in questa notazione è che f (n) diventa trascurabile rispetto a g(n) quando n tende all infinito, cioè lim n f (n) g(n) = 0
25 Le notazioni o piccolo ed ω piccolo Siano f, g : N R 0. Diciamo che f (n) = ω(g(n)) se per ogni costante c > 0 esiste n 0 > 0 tale che 0 cg(n) < f (n) per ogni n n 0 Le definizioni di Ω ed ω sono molto simili: nella prima, la condizione 0 cg(n) f (n) vale per un qualche c > 0 nella seconda, 0 cg(n) < f (n) vale per ogni c > 0 f (n) = ω(g(n)) implica f (n) = Ω(g(n)) In questo caso, f (n) diventa aribitrariamente grande rispetto a g(n) quando n tende all infinito, cioè lim n f (n) g(n) =
26 Alcune utili proprietà Transitività f (n) = o(g(n)) e g(n) = o(h(n)) = f (n) = o(h(n)) f (n) = ω(g(n)) e g(n) = ω(h(n)) = f (n) = ω(h(n)) Simmetria trasposta f (n) = o(g(n)) iff g(n) = ω(f (n))
27 Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O f (n) = O(g(n)) implica af (n) = O(g(n)) per ogni a > 0 Se f (n) = O(g(n)), allora c, n 0 > 0 tali che 0 f (n) cg(n) per ogni n n 0 Moltiplicando tutto per a otteniamo: 0 af (n) a (cg(n)) = (ac) g(n) = c g(n) per ogni n n 0 ossia af (n) = O(g(n))
28 log n = O(n) Analisi Asintotica Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O Dimostriamo, per induzione su n, che log n n per ogni n 1 (questo corrispondere a scegliere c = 1 ed n 0 = 1 nella def di O). Caso base, n = 1: log 1 = 0 1 Passo induttivo: sia n 1 ed assumiamo log n n. Allora: log(n + 1) per ogni n 1 log(n + n) = log(2n) poichè log(ab) = log(a) + log(b) = log 2 + log n = 1 + log n per ipotesi induttiva 1 + n
29 log b n = O(n) per ogni b > 2 Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O Possiamo applicare la regola per cambiamento di base dei logaritmi (log b n = log b a log a n) e otteniamo che log b n = log b 2 log n con log b 2 > log b 1 = 0 Poichè log n = O(n), abbiamo che (vedi dietro) log b n = O(n)
30 Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O log b n k = O(n) per ogni b > 1 e k > 0 Usiamo un altra proprietà degli algoritmi: log a n k = k log a n. Allora: log b n k = k log b n con k > 0 Di nuovo, poichè log b n = O(n), possiamo concludere che (vedi dietro) log b n k = O(n)
31 Polinomi Analisi Asintotica Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O Un polinomio in n di grado k è una funzione p(n) della forma p(n) = k a i n i = a 0 + a 1 n + a 2 n a k n k i=0 dove le costanti reali a 0, a 1,..., a k sono i coefficienti del polinomio e a k 0. Un polinomio è asintoticamente positivo se a k > 0. Se p(n) è un polinomio di grado k asintoticamente positivo, allora p(n) = Θ(n k )
32 n k = O(a n ) per ogni k 0 e a > 1 Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O Per ogni k 0 e a > 1, Allora n k = o(a n ) E quindi anche n k = O(a n ) n k lim n a = 0 n
33 Che relazione c è tra 2 n e 3 n? Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O Banalmente, poichè 2 n 3 n per ogni n 1, si ha 2 n = O(3 n ). Il viceversa non è vero, ossia 3 n O(2 n ). Infatti, se esistessero c, n 0 > 0 tali che 0 3 n c2 n per ogni n n 0 allora (dividendo tutto per 2 n ) avremmo con c costante impossibile (3/2) n c per ogni n n 0
34 Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O Se f 1 (n) = O(g 1 (n)) ed f 2 (n) = O(g 2 (n)) allora f 1 (n) + f 2 (n) = O(g 1 (n) + g 2 (n)) se f 1 (n) = O(g 1 (n)) allora c 1, n0 1 > 0 tali che 0 f 1 (n) c 1 g 1 (n) per ogni n n 1 0 se f 2 (n) = O(g 2 (n)) allora c 2, n0 2 > 0 tali che 0 f 2 (n) c 2 g 2 (n) per ogni n n 2 0 Sia c = max{c 1, c 2 } ed n 0 = max{n 1 0, n2 0 }. Per ogni n n 0, 0 f 1 (n) + f 2 (n) c 1 g 1 (n) + c 2 g 2 (n) c(g 1 (n) + g 2 (n))
35 Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O Se f 1 (n) = O(g 1 (n)) ed f 2 (n) = O(g 2 (n)) allora f 1 (n) f 2 (n) = O(g 1 (n) g 2 (n)) se f 1 (n) = O(g 1 (n)) allora c 1, n0 1 > 0 tali che 0 f 1 (n) c 1 g 1 (n) per ogni n n 1 0 se f 2 (n) = O(g 2 (n)) allora c 2, n0 2 > 0 tali che 0 f 2 (n) c 2 g 2 (n) per ogni n n 2 0 Sia c = c 1 c 2 ed n 0 = max{n 1 0, n2 0 }. Per ogni n n 0, 0 f 1 (n) f 2 (n) (c 1 g 1 (n)) (c 2 g 2 (n)) = c(g 1 (n) g 2 (n))
36 Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O Se f (n) = O(g(n)) allora f (n) k = O(g(n) k ) per ogni k 1 se f (n) = O(g(n)) allora c, n 0 > 0 tali che 0 f (n) cg(n) per ogni n n 0 Elevando tutto alla k e ponendo c = c k > 0 otteniamo 0 f (n) k (cg(n)) k = (c k )g(n) k = c g(n) k per ogni n n 0
37 Logaritmo vs Lineare Polinomi vs Esponenziali Esponenziali con base diversa Manipolare O f (n) = O(g(n)) implica 2 f (n) = O(2 g (n)), vero o falso? Falso troviamo un controesempio Sappiamo che 2n = O(n) Ma, 2 2n = (2 2 ) n = 4 n O(2 n )
Algoritmi e Strutture Dati
Analisi di algoritmi Maria Rita Di Berardini 2, Emanuela Merelli 1 1 Dipartimento di Matematica e Informatica Università di Camerino 2 Polo di Scienze Università di Camerino ad Ascoli Piceno Parte I Analisi
Algoritmi e Strutture Dati
Analisi asintotica e Ricorrenze Esercizi Maria Rita Di Berardini, Emanuela Merelli 1 1 Dipartimento di Matematica e Informatica Università di Camerino A.A. 2006/07 Notazioni O, Ω e Θ Parte I Notazioni
Algoritmi e strutture dati. Analisi di algoritmi Funzioni di costo, notazione asintotica
Algoritmi e strutture dati Analisi di algoritmi Funzioni di costo, notazione asintotica Alberto Montresor Università di Trento 2016/09/11 This work is licensed under a Creative Commons Attribution-ShareAlike
Proprietà delle notazioni asintotiche
Proprietà delle notazioni asintotiche Punto della situazione Cos è un algoritmo Tempo di esecuzione T(n) Analisi di algoritmi: analisi asintotica di T(n) Notazioni asintotiche Argomento di oggi Proprietà
Algoritmi e Strutture Dati
Algoritmi Ricorsivi e Maria Rita Di Berardini, Emanuela Merelli 1 1 Dipartimento di Matematica e Informatica Università di Camerino A.A. 2006/07 I conigli di Fibonacci Ricerca Binaria L isola dei conigli
Lezione 4 Ugo Vaccaro
Progettazione di Algoritmi Anno Accademico 2017 2018 Lezione 4 Ugo Vaccaro Introduciamo ora la notazione Ω, che ci sarà utile quando vorremo valutare limitazioni inferiori al tempo di esecuzione di algoritmi
Esercizi per il corso di Algoritmi
1 Esercizi per il corso di Algoritmi Esercizi sulle Notazioni Asintotiche 1. Esercizio: In ciascuno dei seguenti casi, indicare se f(n) = O(g(n)), o se f(n) = Ω(g(n)), oppure entrambi (nel cui caso occorre
Tempo e spazio di calcolo
Tempo e spazio di calcolo Modelli di calcolo e metodologie di analisi F. Damiani - Alg. & Lab. 04/05 (da M. Zacchi - Alg. & Lab. 03/04) In quale modo stimiamo il tempo di calcolo? Possiamo considerare
Notazione asinto0ca. Analisi degli algoritmi 3/22/15
Notazione asinto0ca Analisi degli algoritmi Esempio: Inser0onSort(a): //n e` la lunghezza di a FOR(;i0)&& a[j- 1]>elemDaIns){ //cerca il posto per a[i] a[j]=a[j-
poiché f(n) max{f(n),g(n)}, e g(n) max{f(n),g(n)}, sommando termine a termine: Quindi possiamo concludere che f(n)+g(n) = Θ(max{f(n),g(n)})
Sol Esercizio 1 Es. Notazione asintotica: 1. Si dimostri che f(n)+g(n) = Θ(max{f(n),g(n)}) sotto l ip. f(n),g(n) >0, a partire da un certo n 0. poiché f(n) max{f(n),g(n)}, e g(n) max{f(n),g(n)}, sommando
Ω (grande omega) Esempio 10 COMPLESSITÀ COMPUTAZIONALE DEGLI ALGORITMI
COMPLESSITÀ COMPUTAZIONALE DEGLI ALGORITMI Fondamenti di Informatica a.a.2006/07 Prof. V.L. Plantamura Dott.ssa A. Angelini Esempio 10 int potenza(int base, int esp); main () { \* Genera le prime potenze
Algoritmi di ricerca. Per ricerca si intende qui il procedimento di localizzare una particolare informazione in un elenco di dati.
E. Calabrese: Fondamenti di Informatica Algoritmi-1 Algoritmi di ricerca Per ricerca si intende qui il procedimento di localizzare una particolare informazione in un elenco di dati. Per esempio: - cercare
Macchina RAM. Modelli di calcolo e metodologie di analisi. Linguaggio di una macchina RAM. Algoritmi e Strutture Dati. Istruzioni.
Algoritmi e Strutture Dati Macchina RAM Nastro di ingresso Modelli di calcolo e metodologie di analisi Contatore istruzioni Programm a Accumulatore Unità centrale M[0] M[1] Nastro di uscita Basato su materiale
Elementi di Complessità Computazionale
Elementi di Complessità Computazionale Ultima modifica 23.06.2004 Il problema Esiste una misura oggettiva per valutare l'efficienza di un algoritmo? In che relazione sono gli input di un algoritmo con
Corso di Calcolo Numerico
Corso di Calcolo Numerico Dott.ssa M.C. De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Risoluzione di Equazioni Algebriche Le equazioni
Esercizi Capitolo 2 - Analisi di Algoritmi
Esercizi Capitolo - Analisi di Algoritmi Alberto Montresor 19 Agosto, 014 Alcuni degli esercizi che seguono sono associati alle rispettive soluzioni. Se il vostro lettore PDF lo consente, è possibile saltare
METODI MATEMATICI PER L INFORMATICA
METODI MATEMATICI PER L INFORMATICA Tutorato Lezione 5 05/05/2016 Corso per matricole congrue a 1 Docente: Margherita Napoli Tutor: Amedeo Leo Dimostrazioni e prove Esercizio 7 pagina 91 Utilizzare una
NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n
NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare
Lezione 4. Problemi trattabili e soluzioni sempre più efficienti. Gianluca Rossi
Lezione 4 Problemi trattabili e soluzioni sempre più efficienti Gianluca Rossi Trattabile o intrattabile? Consideriamo ora il problema, ben noto a tutti gli studenti a partire dalla scuola media, di calcolare
Tecniche Algoritmiche: divide et impera
Tecniche Algoritmiche: divide et impera Una breve presentazione F. Damiani - Alg. & Lab. 04/05 Divide et impera (o Divide and conquer) Per regnare occorre tenere divisi i nemici e trarne vantaggio F. Damiani
non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da
NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x
CORSO DI LAUREA IN FISICA
CORSO DI LAUREA IN FISICA ANALISI MATEMATICA I BREVI RICHIAMI DELLA TEORIA DEI LIMITI. Confronto di infinitesimi. Sia A sottoinsieme di R, sia 0 punto di accumulazione di A nella topologia di R quindi
Elementi di Teoria degli Insiemi
Elementi di Teoria degli Insiemi 2016/17 Esercizi di Giacomo Bertolucci (matr. 519430) Lezioni 7-10 Lezione 7 Esercizio 1. Dimostrare che, se A R con A ℵ 0, allora R A è denso in R. Se così non fosse,
Gli insiemi N, Z e Q. I numeri naturali
Università Roma Tre L. Chierchia 1 Gli insiemi N, Z e Q Il sistema dei numeri reali (R, +,, ) può essere definito tramite sedici assiomi: quindici assiomi algebrici (si veda ad esempio 2.3 in [Giusti,
Algoritmi e Strutture Dati
Heap Maria Rita Di Berardini, Emanuela Merelli 1 1 Dipartimento di Matematica e Informatica Università di Camerino A.A. 2006/07 Heap Heap binari: definizione Un heap binario è una struttura dati composta
ALGEBRA I: ASSIOMI DI PEANO E PROPRIETÀ DEI NUMERI NATURALI
ALGEBRA I: ASSIOMI DI PEANO E PROPRIETÀ DEI NUMERI NATURALI 1. GLI ASSIOMI DI PEANO Come puro esercizio di stile voglio offrire una derivazione delle proprietà elementari dei numeri naturali e delle operazioni
Corso di Analisi Numerica
Corso di Laurea in Ingegneria Informatica Corso di 3 - PROBLEMI DI INTERPOLAZIONE Lucio Demeio Dipartimento di Scienze Matematiche 1 Interpolazione: Polinomio di Lagrange 2 3 Introduzione Problemi di interpolazione
Trasformazioni Logaritmiche
Trasformazioni Logaritmiche Una funzione y = f(x) può essere rappresentata in scala logaritmica ponendo Si noti che y = f(x) diventa ossia Quando mi conviene? X = log α x, Y = log α y. log α (x) = log
