Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi
|
|
|
- Cinzia Scarpa
- 6 anni fa
- Visualizzazioni
Transcript
1 Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi
2 Riconoscimento immagini Attività tipica del cervello umano Task molto difficile per una macchina Apprendimento e generalizzazione
3 Insegnare alle macchine a imparare???
4 neuroni
5 Connettiamo i neuroni! Reti stratificate completamente connesse Le connessioni tra i neuroni di una rete stratificata sono rappresentate mediante tante matrici quante sono le coppie di strati adiacenti. Ogni matrice contiene i pesi delle connessioni tra le coppie di neuroni di due strati adiacenti. Pesi
6 Come possiamo usare la rete?
7 Regressione e classificazione Regressione Permette di trovare una relazione funzionale tra variabili misurate sulla base di dati campionati. Trovare correlazioni tra dati apparentemente non correlati Prevedere un valore continuo
8 Regressione e classificazione classificazione Permette di selezionare e raggruppare elementi omogenei in base alla loro somiglianza (concepita in termini di distanza in uno spazio multidimensionale). Distanza euclidea nello spazio delle caratteristiche
9 Che tipo di problema è il riconoscimento immagini?
10 Input e output Pesi e strati nascosti [INPUT]Feature: [OUTPUT]Category: Un'immagine è un array di pixels. 1. Car 2. Human 3. Rocket 4. Cat 5. Bicycle 6. Toilet 7. Boat 8. Clock 9. Cup Il numero di pixel può essere interpretato come il numero di feature.
11 Errore della rete Funzione di Loss Quantifica il concetto di errore. Es: Errore = risultato atteso - risultato della rete Come riduciamo l errore? Modificando i pesi
12 Allenamento 1. si inizializzano i pesi con valori casuali; 3. Si calcolano le uscite di tutti i neuroni della rete; 2. si presenta un ingresso 4. noto il risultato desiderato, si calcola l errore. 5. Si modifica i pesi in base all errore della rete Un ciclo di presentazione degli esempi del training set è detto epoca.
13 Tutto bello, Ma è così semplice con le immagini?
14 Riconoscimento immagini 1. Indipendenza dal contesto. 2. Indipendenza dalla posizione. Scelta delle feature
15 Reti convoluzionali
16 3 Trucchi Conv2d - Convoluzione Max Pooling ReLu - Rectified Linear unit
17 Conv2d
18 Conv2d
19 Conv2d Permette alla rete di cercare anche solo somiglianze parziali. Trasforma l immagine in uno stack, creando una mappa di occorrenza di ogni feature. Bisogna scegliere: 1. Lo shape delle feature 2. Il numero di feature 3. Lo stride (spostamento della finestra)
20 Max pooling
21 Max pooling
22 Max pooling È molto conveniente ridurre le dimensioni dei pattern per snellire i calcoli. Rende le feature meno sensibili alla posizione in cui vengono trovate. Bisogna scegliere: 1. Lo shape del pool di partenza 2. Lo stride (movimento della finestra) che di default è uguale allo shape
23 Rectified Linear Unit - ReLu
24 Multi strato
25 Flatten e fully connected Ogni feature risulterà più o meno significativa nel prevedere la categoria.
26 Loss function e optimizer Loss Function: È la funzione con cui si calcola l errore della rete. Optimizer: Fornisce un gradiente per il learning rate.
27 Rete completa
28 Costruiamola!
29 Domande?
30 @giurassicparc
Introduzione alle Reti Neurali
Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: [email protected] @famo2spaghi http://stegua.github.com Reti Neurali Terminator
Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità
Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso
Machine Learning:Reti Neurali. Sommario
Machine Learning:Reti Neurali Sommario Apprendimento nel percettrone a sigmoide Reti feed-forward multistrato Apprendimento nel percettrone multistrato: back-propagation Conclusioni Apprendimento nel percettrone
Algoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
Reti Neurali (Parte I)
Reti Neurali (Parte I) Corso di AA, anno 2017/18, Padova Fabio Aiolli 30 Ottobre 2017 Fabio Aiolli Reti Neurali (Parte I) 30 Ottobre 2017 1 / 15 Reti Neurali Artificiali: Generalità Due motivazioni diverse
Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.
Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente
Reti Neurali in Generale
istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono
A Quick Intro to Machine Learning. The field of study that gives computers the ability to learn without being explicitly programmed
A Quick Intro to Machine Learning The field of study that gives computers the ability to learn without being explicitly programmed Dati Informazioni Utili Un approccio per cercare di estrarre informazioni
Corso di Visione Artificiale. Texture. Samuel Rota Bulò
Corso di Visione Artificiale Texture Samuel Rota Bulò Texture Le texture sono facili da riconoscere ma difficili da definire. Texture Il fatto di essere una texture dipende dal livello di scala a cui si
Programmare con MATLAB c Parte 5 Cicli: for e while
Programmare con MATLAB c Parte 5 Cicli: for e while Lucia Gastaldi DICATAM - Sezione di Matematica, http://lucia-gastaldi.unibs.it Indice 1 La notazione due punti 2 Ciclo: for 3 Ciclo con controllo: while
Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)
Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica
Riconoscimento automatico di oggetti (Pattern Recognition)
Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi
Stima della profondità da singola immagine per mezzo di una CNN addestrata mediante tecniche di computer graphics
ALMA MATER STUDIORUM - UNIVERSITÀ DI BOLOGNA SCUOLA DI INGEGNERIA E ARCHITETTURA Dipartimento di Informatica Scienza e Ingegneria CORSO DI LAUREA MAGISTRALE IN INGEGNERIA INFORMATICA TESI DI LAUREA in
Corso di Intelligenza Artificiale A.A. 2016/2017
Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana
Reti Neurali. Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti
Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti Multilayer Perceptron (P) Forward propagation Training: Error Backpropagation On-line Backpropagation Stochastic Gradient Descent (SGD)
A.A. 2018/2019. AlgoBuild: Introduzione agli Array FONDAMENTI DI INFORMATICA E PROGRAMMAZIONE. Docente Prof. Raffaele Pizzolante
A.A. 2018/2019 AlgoBuild: Introduzione agli Array Docente Prof. Raffaele Pizzolante FONDAMENTI DI INFORMATICA E PROGRAMMAZIONE Caratteristiche Principali Un array è una variabile in cui è possibile memorizzare
Esercizi di Programmazione Lineare
Esercizi di Programmazione Lineare 1 grafica Si consideri il seguente problema di programmazione lineare: max 3x 1 + 2x 2 s.t. + 2x 1 + x 2 4 2x 1 + x 2 2 + x 1 x 2 1 x 1, x 2 0 a) Risolvere il problema
DEEP LEARNING PER CONTROLLO QUALITA PRODOTTO E CONTROLLO DI PROCESSO Alessandro Liani, CEO e R&D Manager
DEEP LEARNING PER CONTROLLO QUALITA PRODOTTO E CONTROLLO DI PROCESSO Alessandro Liani, CEO e R&D Manager Smart Vision - Le tecnologie per l industria del futuro Machine Learning Famiglie di machine learning
Indice generale. Introduzione. Capitolo 1 Essere uno scienziato dei dati... 1
Introduzione...xi Argomenti trattati in questo libro... xi Dotazione software necessaria... xii A chi è rivolto questo libro... xii Convenzioni utilizzate... xiii Scarica i file degli esempi... xiii Capitolo
Deep Learning. Introduzione Perché deep? Livelli e complessità Tipologie di DNN Ingredienti necessari Da MLP a CNN
Introduzione Perché deep? Livelli e complessità Tipologie di DNN Ingredienti necessari Da P a CNN Convolutional Neural Networks (CNN) Architettura Volumi e Convoluzione 3D Relu, Pooling Esempi di reti
Regressione Lineare Semplice e Correlazione
Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE CON RETI NEURALI di G. Masala INTRODUZIONE Sistema di classificazione o riconoscimento Un sistema di classificazione [1][2] o di riconoscimento, considerato in
Backpropagation in MATLAB
Modello di neurone BACKPROPAGATION Backpropagation in MATLAB Prof. Beatrice Lazzerini Dipartimento di Ingegneria dell Informazione Via Diotisalvi 2, 56122 Pisa La funzione di trasferimento, che deve essere
Multicollinearità. Strumenti quantitativi per la gestione
Multicollinearità Strumenti quantitativi per la gestione Emanuele Taufer file:///c:/users/emanuele.taufer/dropbox/3%20sqg/classes/3c_mc.html#(1) 1/13 Quando non tutto va come dovrebbe Si parla di multi-collinearità
DEEP LEARNING. Scuola Politecnica e delle Scienze di Base Corso di Laurea in Ingegneria Informatica. Elaborato finale in INTELLIGENZA ARTIFICIALE
Scuola Politecnica e delle Scienze di Base Corso di Laurea in Ingegneria Informatica Elaborato finale in INTELLIGENZA ARTIFICIALE DEEP LEARNING Anno Accademico 2014-2015 Candidato: NICOLA CAPUANO matr.
Spazio e trasformazioni sensorimotorie
Università degli studi di Padova Dipartimento di Psicologia Generale Spazio e trasformazioni sensorimotorie Michele De Filippo De Grazia Simone Cutini Outline Trasformazioni sensorimotorie Basi anatomo-fisiologiche
UTILIZZO DELLO STRUMENTO ANALISI DATI DI EXCEL 1 PER ANALISI DI CORRELAZIONE E STIMA DI MODELLI DI REGRESSIONE
UTILIZZO DELLO STRUMENTO ANALISI DATI DI EXCEL 1 PER ANALISI DI CORRELAZIONE E STIMA DI MODELLI DI REGRESSIONE [a cura di L.Secondi, ad uso degli studenti del corso di Statistica per le ricerche di mercato]
Classificazione Bayesiana
Classificazione Bayesiana Selezionare, dato un certo pattern x, la classe ci che ha, a posteriori, la massima probabilità rispetto al pattern: P(C=c i x)>p(c=c j x) j i Teorema di Bayes (TDB): P(A B) =
Regressione non lineare con un modello neurale feedforward
Reti Neurali Artificiali per lo studio del mercato Università degli studi di Brescia - Dipartimento di metodi quantitativi Marco Sandri ([email protected]) Regressione non lineare con un modello neurale
Apprendimento Automatico
Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S
Regressione Lineare e Regressione Logistica
Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: [email protected] @famo2spaghi http://stegua.github.com 1 Introduzione
Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione
Codifica di canale (dalle dispense e dalle fotocopie) Codici lineari a blocchi Un codice lineare (n,k) è un codice che assegna una parola lunga n ad ogni blocco lungo k. Si dice che il codice abbia un
Econometria. lezione 13. validità interna ed esterna. Econometria. lezione 13. AA 2014-2015 Paolo Brunori
AA 2014-2015 Paolo Brunori popolazione studiata e popolazione di interesse - popolazione studiata: popolazione da cui è stato estratto il campione - popolazione di interesse: popolazione per la quale ci
Classificatore K-NN 1
Classificatore K-NN 1 Esercizio: Implementare il classificatore K-NN: [labelassegnate_test error_test] = mio_knn( ds_train, ds_test, k) Traccia: La funzione DIST(A,B') del toolbox reti neurali calcola
Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri
Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano
LEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano. Strumenti statistici in Excell
LEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano Strumenti statistici in Excell Pacchetto Analisi di dati Strumenti di analisi: Analisi varianza: ad un fattore Analisi
