L’identificazione di anomalie è una tematica sempre più popolare che viene affrontata su più fronti. In generale, l’anomalia rappresenta un’entità, un evento o una caratteristica che non risulta conforme allo standard di normalità. Le anomalie sono un ostacolo, a volte anche pericoloso come per esempio nella sicurezza informatica, in cui l’intrusione di persone non fidate all’interno di sistemi informatici può diventare critico per un’azienda o un’istituzione; in industrie invece, le anomalie possono danneggiare la qualità dei prodotti, causando pesanti perdite in termini economici. Per questo motivo vengono ideate numerose tecniche che permettono di riconoscere le anomalie e ridurre i pericoli, i danni da esse causate o semplicemente per monitorare la qualità e gestire la manutenzione.
In un contesto di immagini, il riconoscimento di anomalie è un problema di Computer Vision. Esistono metodi di ricostruzione come gli Autoencoder o metodi generativi come le GAN che si occupano di risolvere tale problema. Tra i modelli che si basano sulle GAN, chiamati GAN-based, si distingue il modello Ganomaly: esso permette di rilevare se un’immagine sia anomala.
Sulla base di quest’ultimo, nascono Patch-Ganomaly, con cui si vuole migliorare il comportamento di Ganomaly, andando a localizzare la regione anomala di un’immagine, in termini di pixel, e migliorarne efficacia ed efficienza.
Mediante l’utilizzo di transfer learning basato sulla rete VGG16 è possibile ottenere un modello più preciso, TL-Ganomaly. Esso localizza la regione anomala in maniera precisa, in termini di pixel riconosciuti correttamente anomali.
In fase di post-processing inoltre è possibile dare un ulteriore apporto con il modello Conv-Processing, il quale apprende quale kernel convoluzionale riesca a migliorare la segmentazione delle anomalie in fase di post-processing.
Tecniche di image forsensic per l’identificazione della sorgente - Andrea Guidieri, Francesco Mei - AA 2009-2010 Relatori: Prof. Alessandro Piva, Dr. Roberto Caldelli, Dr. Alessia De Rosa, Dr. Francesca Uccheddu
Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...Andrea Bidinost
TARGET: Estimate camera pose and trajectory from 3D images acquired by 3D structured light sensor.
Development of new algorithm for egomotion estimation (Frame Based and Color Fusion) and comparison with Iterative Closest Point approaches.
Usage of inverse depth space for 3D data modelization.
Identificare feature significative per l’analisi nell’informatica forense uti...Antonio Notarangelo
Tecniche di intelligenza artificiale usate per scoprire le prove in una grande varietà di crimini informatici, evitando di compromettere la sicurezza e la riservatezza delle informazioni.
Tecniche di image forsensic per l’identificazione della sorgente - Andrea Guidieri, Francesco Mei - AA 2009-2010 Relatori: Prof. Alessandro Piva, Dr. Roberto Caldelli, Dr. Alessia De Rosa, Dr. Francesca Uccheddu
Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...Andrea Bidinost
TARGET: Estimate camera pose and trajectory from 3D images acquired by 3D structured light sensor.
Development of new algorithm for egomotion estimation (Frame Based and Color Fusion) and comparison with Iterative Closest Point approaches.
Usage of inverse depth space for 3D data modelization.
Identificare feature significative per l’analisi nell’informatica forense uti...Antonio Notarangelo
Tecniche di intelligenza artificiale usate per scoprire le prove in una grande varietà di crimini informatici, evitando di compromettere la sicurezza e la riservatezza delle informazioni.
The document discusses using machine learning and quantum computing to optimize marketing campaigns. Specifically, it details using transformers to predict user appreciation and activation for different incentive levels. A quantum annealer is then used to solve the NP-hard problem of allocating incentives to users to maximize appreciation within a cost target. Three A/B tests are conducted, with the second hitting targets and the third having uncertain results. Overall the approach shows potential to optimize large marketing budgets.
This document provides an overview of transformers in computer vision. It discusses how transformers were originally developed for natural language processing using attention mechanisms instead of recurrent connections. Vision transformers apply this approach to images by treating patches as tokens and using self-attention. Early vision transformers achieved strong results on image classification tasks. Recent developments include Swin transformers which use shifted windows to incorporate positional information, and models that combine convolutional and transformer architectures. Transformers are also being applied to video understanding tasks. The document explores different transformer architectures and applications of vision transformers.
1. The document discusses operations research, which uses mathematical modeling to help make better decisions.
2. Operations research tools like mathematical programming and decomposition methods can be used to solve large, complex problems and scale to practical applications.
3. Decomposition methods break large problems into smaller subproblems that can be solved independently to find good feasible solutions for the original problem.
This document describes a deep learning approach called c-ResUnet for counting cells in fluorescent microscopy images. It discusses fluorescent microscopy imaging techniques and applications in life sciences. It then introduces the Fluorescent Neuronal Cells dataset and challenges in counting cells, such as class imbalance, overcrowding, and noise. The c-ResUnet model is presented, which uses a convolutional neural network with residual blocks for semantic segmentation. Experiments show that c-ResUnet outperforms other architectures and achieves performance close to human experts on this dataset through the use of weight maps and oversampling artifacts during training. Both qualitative and quantitative evaluations demonstrate the effectiveness of c-ResUnet for automated cell counting.
Negli ultimi anni la robotica sta finalmente uscendo dalle fabbriche per popolare le città in cui viviamo. Auto a guida autonoma, droni e robot per la consegna di cibo, quadrupedi per la sorveglianza delle strade: questi sono solo alcuni esempi di ciò che si può trovare già oggi in molti quartieri nel mondo. La rivoluzione generata dal deep learning a partire dal 2012 è soltanto uno degli elementi di questa diffusione, che si fonda anche su complesse dinamiche di mercato e decenni di ricerca precedente nell'ambito dei sistemi robotici, dal punto di vista sia software che hardware. A che punto siamo arrivati? Quali sono le sfide che i ricercatori e le aziende devono affrontare oggi in questo settore? Quali sono i meccanismi di mercato che guidano lo sviluppo di questi sistemi? In questo talk risponderemo a queste domande, in modo da fornire una panoramica completa sullo stato dell'arte nella robotica mobile urbana.
This document outlines a presentation on exploiting graph theory for systems biology. It introduces concepts of graph theory including networks, connected graphs, representations like adjacency matrices, and biological network abstractions. It discusses analyzing biological networks for non-random organization using measures like node degree, power law distributions, and scale-free properties. Examples of protein interaction and metabolic networks are provided. Sources of interaction data and network analysis tools like Cytoscape and Genemania are also mentioned. The document outlines identifying key molecules and mechanisms through centrality measures and optimal diffusion/disruption of networks.
This document discusses machine learning security risks. It begins by explaining how machine learning works and its increasing applications. However, it notes that criminals are also exploiting machine learning tools. It then describes different types of machine learning attacks, including evasion attacks, adversarial attacks, data poisoning attacks, and backdoor poisoning attacks. Specifically, backdoor poisoning aims to force a model to predict an attacker's chosen class when presented with a specific trigger. The document argues that understanding how backdoor poisoning works is an open problem and presents a framework using learning curves to better understand a model's vulnerability to backdoors.
The document discusses deep learning applications for medical image analysis, including for diagnosis, surgical planning and guidance, and risk assessment. Specifically, it presents examples of using deep learning for tasks like classification, segmentation, detection, and pose estimation using medical images from modalities like ultrasound, X-ray, and video. Challenges in the field include limited datasets, variability in medical images, and privacy concerns, but deep learning methods are able to learn features directly from data to help with complex medical image analysis problems.
This document summarizes an AI training program hosted by Pi Campus. The program trains engineers from around the world in artificial intelligence skills and has them apply their new skills on industry projects provided by partner companies. It offers the training for free to top developers and provides grants to cover travel and accommodation for those transferring from abroad. The program focuses on learning by doing through hands-on projects rather than traditional teaching. It partners with companies like Google, Facebook, and Amazon to sponsor developers and solve real-world challenges.
LIME is a model-agnostic framework that provides local explanations for black box machine learning models. It works by generating new data points around the prediction being explained and training a simple interpretable model, such as linear regression, on those points. This local model approximates the more complex black box model and is used to provide feature importance values for explaining the prediction. The key steps in LIME are data point generation, weighting points by proximity to the prediction being explained, and training an interpretable local model on the weighted points. LIME aims to provide human-understandable explanations by approximating the black box model with an interpretable local model.
This document discusses explainable artificial intelligence (XAI) techniques. It begins with an introduction to XAI and defines interpretability, comprehensibility, and explainability. It then discusses the problems of "black box" models and the need for explanations. The document outlines several XAI techniques including LIME, LORE, and SHAP. LIME provides local explanations by learning an interpretable model on a perturbed dataset. LORE uses a genetic algorithm to sample the dataset and extracts rules. SHAP assigns feature importance values based on Shapley values from game theory.
Felipe Campos Kitamura is a medical doctor, radiologist, and AI practitioner whose research interests include medical imaging, computer vision, artificial intelligence, and machine learning. He is currently focused on using machine learning in healthcare applications such as medical imaging analysis and using AI to help summarize surgical events in real-time. Machine learning can be applied in healthcare for tasks like medical diagnosis, predictive analytics for disease screening and monitoring, and assisting with surgical procedures.
The document summarizes recent work in natural language generation (NLG), including common training and evaluation practices as well as efforts to address limitations. It discusses how teacher forcing can lead to exposure bias during inference and explores alternatives like reinforcement learning and generative adversarial networks. It also reviews work on multilingual datasets and metrics as well as efforts to develop more accurate evaluation methods for NLG like question-based metrics and SAFEval. The document concludes by discussing promising directions for future work such as leveraging discriminators during training and generating questions to evaluate NLG models.
Transformer Seq2Sqe Models: Concepts, Trends & Limitations (DLI)Deep Learning Italia
This document provides an overview of transformer seq2seq models, including their concepts, trends, and limitations. It discusses how transformer models have replaced RNNs for seq2seq tasks due to being more parallelizable and effective at modeling long-term dependencies. Popular seq2seq models like T5, BART, and Pegasus are introduced. The document reviews common pretraining objectives for seq2seq models and current trends in larger model sizes, task-specific pretraining, and long-range modeling techniques. Limitations discussed include the need for grounded representations and efficient generation for seq2seq models.
Towards Quantum Machine Learning Hands-on
Machine Learning (ML) gained a lot of momentum in the last ten years, mostly thanks to the advancements in non-linear patterns discovery, and more specifically, in Deep Learning (DL). But those who think that DL is going to address all possible problems might be terribly wrong. DL and ML tasks, in general, are categorized as Non-Polynomial problems, which means that the number of possible solutions for a given problem can grow exponentially, making it intractable using the classical algorithmic approach. Here, Quantum Computing (QC) techniques have the potential to address these issues and help ML methods to solve problems faster and sometimes better than the classical counterpart. The conjunction of these two disciplines resulted in a new exciting research direction to explore: Quantum Machine Learning (QML).
towards Quantum Machine Learning
Machine Learning (ML) gained a lot of momentum in the last ten years, mostly thanks to the advancements in non-linear patterns discovery, and more specifically, in Deep Learning (DL). But those who think that DL is going to address all possible problems might be terribly wrong. DL and ML tasks, in general, are categorized as Non-Polynomial problems, which means that the number of possible solutions for a given problem can grow exponentially, making it intractable using the classical algorithmic approach. Here, Quantum Computing (QC) techniques have the potential to address these issues and help ML methods to solve problems faster and sometimes better than the classical counterpart. The conjunction of these two disciplines resulted in a new exciting research direction to explore: Quantum Machine Learning (QML).
The document discusses using machine learning and quantum computing to optimize marketing campaigns. Specifically, it details using transformers to predict user appreciation and activation for different incentive levels. A quantum annealer is then used to solve the NP-hard problem of allocating incentives to users to maximize appreciation within a cost target. Three A/B tests are conducted, with the second hitting targets and the third having uncertain results. Overall the approach shows potential to optimize large marketing budgets.
This document provides an overview of transformers in computer vision. It discusses how transformers were originally developed for natural language processing using attention mechanisms instead of recurrent connections. Vision transformers apply this approach to images by treating patches as tokens and using self-attention. Early vision transformers achieved strong results on image classification tasks. Recent developments include Swin transformers which use shifted windows to incorporate positional information, and models that combine convolutional and transformer architectures. Transformers are also being applied to video understanding tasks. The document explores different transformer architectures and applications of vision transformers.
1. The document discusses operations research, which uses mathematical modeling to help make better decisions.
2. Operations research tools like mathematical programming and decomposition methods can be used to solve large, complex problems and scale to practical applications.
3. Decomposition methods break large problems into smaller subproblems that can be solved independently to find good feasible solutions for the original problem.
This document describes a deep learning approach called c-ResUnet for counting cells in fluorescent microscopy images. It discusses fluorescent microscopy imaging techniques and applications in life sciences. It then introduces the Fluorescent Neuronal Cells dataset and challenges in counting cells, such as class imbalance, overcrowding, and noise. The c-ResUnet model is presented, which uses a convolutional neural network with residual blocks for semantic segmentation. Experiments show that c-ResUnet outperforms other architectures and achieves performance close to human experts on this dataset through the use of weight maps and oversampling artifacts during training. Both qualitative and quantitative evaluations demonstrate the effectiveness of c-ResUnet for automated cell counting.
Negli ultimi anni la robotica sta finalmente uscendo dalle fabbriche per popolare le città in cui viviamo. Auto a guida autonoma, droni e robot per la consegna di cibo, quadrupedi per la sorveglianza delle strade: questi sono solo alcuni esempi di ciò che si può trovare già oggi in molti quartieri nel mondo. La rivoluzione generata dal deep learning a partire dal 2012 è soltanto uno degli elementi di questa diffusione, che si fonda anche su complesse dinamiche di mercato e decenni di ricerca precedente nell'ambito dei sistemi robotici, dal punto di vista sia software che hardware. A che punto siamo arrivati? Quali sono le sfide che i ricercatori e le aziende devono affrontare oggi in questo settore? Quali sono i meccanismi di mercato che guidano lo sviluppo di questi sistemi? In questo talk risponderemo a queste domande, in modo da fornire una panoramica completa sullo stato dell'arte nella robotica mobile urbana.
This document outlines a presentation on exploiting graph theory for systems biology. It introduces concepts of graph theory including networks, connected graphs, representations like adjacency matrices, and biological network abstractions. It discusses analyzing biological networks for non-random organization using measures like node degree, power law distributions, and scale-free properties. Examples of protein interaction and metabolic networks are provided. Sources of interaction data and network analysis tools like Cytoscape and Genemania are also mentioned. The document outlines identifying key molecules and mechanisms through centrality measures and optimal diffusion/disruption of networks.
This document discusses machine learning security risks. It begins by explaining how machine learning works and its increasing applications. However, it notes that criminals are also exploiting machine learning tools. It then describes different types of machine learning attacks, including evasion attacks, adversarial attacks, data poisoning attacks, and backdoor poisoning attacks. Specifically, backdoor poisoning aims to force a model to predict an attacker's chosen class when presented with a specific trigger. The document argues that understanding how backdoor poisoning works is an open problem and presents a framework using learning curves to better understand a model's vulnerability to backdoors.
The document discusses deep learning applications for medical image analysis, including for diagnosis, surgical planning and guidance, and risk assessment. Specifically, it presents examples of using deep learning for tasks like classification, segmentation, detection, and pose estimation using medical images from modalities like ultrasound, X-ray, and video. Challenges in the field include limited datasets, variability in medical images, and privacy concerns, but deep learning methods are able to learn features directly from data to help with complex medical image analysis problems.
This document summarizes an AI training program hosted by Pi Campus. The program trains engineers from around the world in artificial intelligence skills and has them apply their new skills on industry projects provided by partner companies. It offers the training for free to top developers and provides grants to cover travel and accommodation for those transferring from abroad. The program focuses on learning by doing through hands-on projects rather than traditional teaching. It partners with companies like Google, Facebook, and Amazon to sponsor developers and solve real-world challenges.
LIME is a model-agnostic framework that provides local explanations for black box machine learning models. It works by generating new data points around the prediction being explained and training a simple interpretable model, such as linear regression, on those points. This local model approximates the more complex black box model and is used to provide feature importance values for explaining the prediction. The key steps in LIME are data point generation, weighting points by proximity to the prediction being explained, and training an interpretable local model on the weighted points. LIME aims to provide human-understandable explanations by approximating the black box model with an interpretable local model.
This document discusses explainable artificial intelligence (XAI) techniques. It begins with an introduction to XAI and defines interpretability, comprehensibility, and explainability. It then discusses the problems of "black box" models and the need for explanations. The document outlines several XAI techniques including LIME, LORE, and SHAP. LIME provides local explanations by learning an interpretable model on a perturbed dataset. LORE uses a genetic algorithm to sample the dataset and extracts rules. SHAP assigns feature importance values based on Shapley values from game theory.
Felipe Campos Kitamura is a medical doctor, radiologist, and AI practitioner whose research interests include medical imaging, computer vision, artificial intelligence, and machine learning. He is currently focused on using machine learning in healthcare applications such as medical imaging analysis and using AI to help summarize surgical events in real-time. Machine learning can be applied in healthcare for tasks like medical diagnosis, predictive analytics for disease screening and monitoring, and assisting with surgical procedures.
The document summarizes recent work in natural language generation (NLG), including common training and evaluation practices as well as efforts to address limitations. It discusses how teacher forcing can lead to exposure bias during inference and explores alternatives like reinforcement learning and generative adversarial networks. It also reviews work on multilingual datasets and metrics as well as efforts to develop more accurate evaluation methods for NLG like question-based metrics and SAFEval. The document concludes by discussing promising directions for future work such as leveraging discriminators during training and generating questions to evaluate NLG models.
Transformer Seq2Sqe Models: Concepts, Trends & Limitations (DLI)Deep Learning Italia
This document provides an overview of transformer seq2seq models, including their concepts, trends, and limitations. It discusses how transformer models have replaced RNNs for seq2seq tasks due to being more parallelizable and effective at modeling long-term dependencies. Popular seq2seq models like T5, BART, and Pegasus are introduced. The document reviews common pretraining objectives for seq2seq models and current trends in larger model sizes, task-specific pretraining, and long-range modeling techniques. Limitations discussed include the need for grounded representations and efficient generation for seq2seq models.
Towards Quantum Machine Learning Hands-on
Machine Learning (ML) gained a lot of momentum in the last ten years, mostly thanks to the advancements in non-linear patterns discovery, and more specifically, in Deep Learning (DL). But those who think that DL is going to address all possible problems might be terribly wrong. DL and ML tasks, in general, are categorized as Non-Polynomial problems, which means that the number of possible solutions for a given problem can grow exponentially, making it intractable using the classical algorithmic approach. Here, Quantum Computing (QC) techniques have the potential to address these issues and help ML methods to solve problems faster and sometimes better than the classical counterpart. The conjunction of these two disciplines resulted in a new exciting research direction to explore: Quantum Machine Learning (QML).
towards Quantum Machine Learning
Machine Learning (ML) gained a lot of momentum in the last ten years, mostly thanks to the advancements in non-linear patterns discovery, and more specifically, in Deep Learning (DL). But those who think that DL is going to address all possible problems might be terribly wrong. DL and ML tasks, in general, are categorized as Non-Polynomial problems, which means that the number of possible solutions for a given problem can grow exponentially, making it intractable using the classical algorithmic approach. Here, Quantum Computing (QC) techniques have the potential to address these issues and help ML methods to solve problems faster and sometimes better than the classical counterpart. The conjunction of these two disciplines resulted in a new exciting research direction to explore: Quantum Machine Learning (QML).
1. Anomaly Detection a partire da Ganomaly:
patch-wise training e transfer learning
&
2. Chi è Daniele Moltisanti?
• Data Scientist - Sky
• 26 Anni
• Backgroung Ing. Informatica - Politecnico di Milano
• Specializzato in algoritmi di Deep Learning
3. Fondatore di stAI tuned
Open Knowledge Community:
Divulgazione di contenuti relativi a AI applicati a settori specifici
5. Dominio: immagini relative a lastre di acciaio
Obiettivo: estrarre la maschera di anomalia
Risultato: Riconoscimento delle anomalie
Descrizione del problema
Riconoscimento di Anomalie
6. Riconoscimento di Anomalie
Descrizione del problema
Obiettivo
Si cerca un modello matematico che misuri il grado di anomalia di ogni pixel
> L'anomaly score map associa ad ogni pixel un valore di
anomalia (anomaly score)
> Pixel con un alto valore di anomalia vengono riconosciuti
anomali
Regione Anomala
Regione Normale
Modello
Matematico
Anomaly Score
Map
Maschera di
Anomalia
8. Soluzioni esistenti al problema
Classificatore
Metodi di
Apprendimento Supervisionato
Metodi di
Apprendimento Semi-Supervisionato
Autoencoder AnoGAN Ganomaly
> I modelli supervisionati apprendono i pattern delle
immagini normali e di quelle anomale
> Si basano su un dataset di immagini etichettate
> Poco efficaci nel caso in cui le anomalie mutino le loro
caratteristiche
Riconoscimento di Anomalie
9. Soluzioni esistenti al problema
Classificatore
Metodi di
Apprendimento Semi-Supervisionato
Autoencoder AnoGAN Ganomaly
Riconoscimento di Anomalie
> Classifica un'intera immagine nelle due classi possibili:
Normale o Anomala
> La Rete Neurale Convoluzionale è un noto classificatore
Metodi di
Apprendimento Supervisionato
10. Soluzioni esistenti al problema
Classificatore
Metodi di
Apprendimento Semi-Supervisionato
Autoencoder AnoGAN Ganomaly
Riconoscimento di Anomalie
> I modelli semi-supervisionati apprendono il comportamento
delle sole immagini normali
> Calcolano l'anomaly score di un'immagine
> Sfruttano il valore di anomaly score per definire la presenza
anomalia
Metodi di
Apprendimento Supervisionato
11. Soluzioni esistenti al problema
Classificatore
Metodi di
Apprendimento Semi-Supervisionato
Autoencoder AnoGAN Ganomaly
Riconoscimento di Anomalie
> Rientra tra i modelli di ricostruzione
> Riconosce anomala un'intera immagine che
presenta un alto anomaly score
Encoder Decoder
Anomaly
Score
Metodi di
Apprendimento Supervisionato
12. Soluzioni esistenti al problema
Classificatore
Metodi di
Apprendimento Semi-Supervisionato
Autoencoder AnoGAN Ganomaly
Riconoscimento di Anomalie
Generatore
Discriminatore
Reale
Generata
Rappresentazione
latente
> Fa parte dei modelli GAN-based
> Apprende come generare di immagini normali
> L'anomaly score viene calcolato attraverso l'errore di
apprendimento
> Alti valori di anomaly score corrispondono ad alte
probabilità di avere un'immagine anomala
> Riconosce la regione anomala mediante l'errore tra
un'immagine e quella fornita dal generatore
Metodi di
Apprendimento Supervisionato
13. Soluzioni esistenti al problema
Classificatore
Metodi di
Apprendimento Semi-Supervisionato
Autoencoder AnoGAN Ganomaly
Riconoscimento di Anomalie
Generatore
Discriminatore
Reale
Generata
Encoder Decoder Encoder
Classficatore
> Fa parte dei modelli GAN-based
> Apprende come generare immagini normali
> L'anomaly score viene calcolato attraverso l'errore degli
encoding
> Riconosce anomala un'intera immagini che misura
un'alta anomaly score
> Applicato su immagini di dimensioni ridotte (32 x 32)
Metodi di
Apprendimento Supervisionato
16. Patch-wise Training
Approccio Proposto
Patch-wise Training
Da immagini a patch:
> Tecnica di apprendimento basata su porzioni di immagini
(patch)
> Da ogni immagine viene estratto un numero N di patches
> Il training set di immagini viene trasformato in un patch set
17. Patch-wise Training
Approccio Proposto
256 x 1600
Patch
32
32
Patch-wise Training
Da immagini a patch:
> Tecnica di apprendimento basata su porzioni di immagini
(patch)
> Da ogni immagine viene estratto un numero N di patches
> Il training set di immagini viene trasformato in un patch set
18. Patch-wise Training
Approccio Proposto
Training Set
Patch Set
Da immagini a patch:
> Tecnica di apprendimento basata su porzioni di immagini
(patch)
> Da ogni immagine viene estratto un numero N di patches
> Il training set di immagini viene trasformato in un patch set
Patch-wise Training
19. Patch-wise Training
Approccio Proposto
Addestramento:
> Apprendimento basato su un training set di patch
> La patch è definita anomala se il suo centro appartiene alla regione anomala
> La patch normale presenta il suo centro privo di anomalie
Patch
Training Modello Patch-wise
Patch-wise Training
20. Patch-wise Training
Approccio Proposto
Patch
Anomala
Maschera di Anomalia Patch
Regione Anomala
Addestramento:
> Apprendimento basato su un training set di patch
> La patch è definita anomala se il suo centro appartiene alla regione anomala
> La patch normale presenta il suo centro privo di anomalie
Patch-wise Training
21. Patch-wise Training
Approccio Proposto
Maschera di Anomalia Patch
Patch
Normale
Regione Anomala
Addestramento:
> Apprendimento basato su un training set di patch
> La patch è definita anomala se il suo centro appartiene alla regione anomala
> La patch normale presenta il suo centro privo di anomalie
Patch-wise Training
23. Patch-Ganomaly
Approccio Proposto
> Si basa sull'architettura di Ganomaly
> Caratterizzato da una rete generatrice (Generatore) e una rete antagonista (Discriminatore)
> Sfrutta la tecnica del patch-wise training
> Analizza patch piuttosto che intere immagini
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
25. Approccio Proposto
Patch-Ganomaly
> Il training set è formato da sole patch normali
> Il modello apprende come generare patch normali, attreverso il Generatore
> L'addestramento di basa sull'ottimizzazione del Generatore e del Discriminatore
Addestramento
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
26. Approccio Proposto
Patch-Ganomaly
> La funzione obiettivo (objective function) del Generatore tiene
conto di tre funzioni di perdita (loss functions):
Errore di Ricostruzione
Errore degli Encoding
Errore delle Feature
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
Addestramento
27. Approccio Proposto
Patch-Ganomaly
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
�푐� = � − �' 1
Misura la differenza tra l'immagine in input e quella generata
> La funzione obiettivo (objective function) del Generatore tiene
conto di tre funzioni di perdita (loss functions):
Errore di Ricostruzione
Errore degli Encoding
Errore delle Feature
Addestramento
28. Approccio Proposto
Patch-Ganomaly
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
�푒푐 = � − �' 2
Misura la differenza tra gli encoding dell'immagine in input e quella
generata
> La funzione obiettivo (objective function) del Generatore tiene
conto di tre funzioni di perdita (loss functions):
Errore di Ricostruzione
Errore degli Encoding
Errore delle Feature
Addestramento
29. Approccio Proposto
Patch-Ganomaly
�푎� = �(�) − �(�') 2
Misura la differenza tra le feature estratte dalle due immagini
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
f(x)
f(x')
> La funzione obiettivo (objective function) del Generatore tiene
conto di tre funzioni di perdita (loss functions):
Errore di Ricostruzione
Errore degli Encoding
Errore delle Feature
Addestramento
30. Approccio Proposto
Patch-Ganomaly
�푔푒 = �
푐� �푐� + �
푒푐 �푒푐 + �
푎� �푎�
> La funzione obiettivo (objective function) del Generatore è la
somma pesata delle tre loss functions:
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
Addestramento
31. > La funzione obiettivo (objective function) del Discriminatore tiene
conto della seguente funzione di perdita (loss function):
Binary Cross Entropy
Approccio Proposto
Patch-Ganomaly
Valuta l'entropia delle distribuzioni relative alle patch
del training set x e quelle generate x'
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
Generatore
Discriminatore
x
z
x'
z'
out(x)
out(x')
�퐷� =
�퐵� (1, �� (�)) + �퐵� (0, �� (�'))
2
Addestramento
33. Approccio Proposto
Patch-Ganomaly
> Il modello è addestrato per generare patch normali
> Una patch anomala tende ad essere ricostruita come una patch normale
> Una patch anomala determina un alto errore degli encoding rispetto al caso di patch
normali
> L'anomaly score è definito sulla base dell'errore relativo agli encoding
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
Fase di Test
34. Approccio Proposto
Patch-Ganomaly
> Il modello è addestrato a generare patch normali
> Una patch anomala tende ad essere ricostruita come una patch normale
> Una patch anomala determina un alto errore degli encoding rispetto al caso di patch
normali
> L'anomaly score è definito sulla base dell'errore relativo agli encoding
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
Fase di Test
35. Approccio Proposto
Patch-Ganomaly
> Il modello è addestrato a generare patch normali
> Una patch anomala tende ad essere ricostruita come una patch normale
> Una patch anomala determina un alto errore degli encoding rispetto al caso di patch
normali
> L'anomaly score è definito sulla base dell'errore relativo agli encoding
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
Fase di Test
36. Approccio Proposto
Patch-Ganomaly
> Il modello è addestrato a generare patch normali
> Una patch anomala tende ad essere ricostruita come una patch normale
> Una patch anomala determina un alto errore degli encoding rispetto al caso di patch
normali
> L'anomaly score è definito sulla base dell'errore degli encoding
Generatore
Discriminatore
x
z
x'
z'
Reale
Generata
Kernel
Conv 2D
Conv Tran. 2D
Activation Map
Latent Vector
Classification
Output
Batch Norm. 2D
�(�) = � − �' 2
Fase di Test
40. Approccio Proposto
Patch-Ganomaly
Inferenza
> Estrazione delle patch che compongono un'immagine
> Inferenza del modello Patch-Ganomaly sulle patch estratte
> Gli anomaly score delle patch formano l'anomaly score map associata all'immagine
256 x 1600 Patch
... ... ...
32
32
41. Approccio Proposto
Patch-Ganomaly
Inferenza
> Estrazione delle patch che compongono un'immagine
> Inferenza del modello Patch-Ganomaly sulle patch estratte
> Gli anomaly score delle patch formano l'anomaly score map associata all'immagine
256 x 1600 Patch
... ... ...
32
32
Modello
Patch-Ganomaly
42. Approccio Proposto
Patch-Ganomaly
Inferenza
> Estrazione delle patch che compongono un'immagine
> Inferenza del modello Patch-Ganomaly sulle patch estratte
> Gli anomaly score delle patch formano l'anomaly score map associata all'immagine
... ...
256 x 1600 Patch
... ... ...
32
32
Modello
Patch-Ganomaly
Anomaly
Score Map
43. Approccio Proposto
Patch-Ganomaly
Inferenza
256 x 1600 Patch
... ...
...
32
32
Modello
Patch-Ganomaly
Anomaly
Score Map
> Estrazione delle patch che compongono un'immagine
> Inferenza del modello Patch-Ganomaly sulle patch estratte
> Gli anomaly score delle patch formano l'anomaly score map associata all'immagine
44. Approccio Proposto
Patch-Ganomaly
Inferenza
Anomaly
Score Map
> Valori di anomaly score elevati sono associati a pixel anomali
> La soglia di decisione definisce il confine tra uno score normale e uno score anomalo
> La fase di thresholding permette di ottenere questa soglia
> La soglia permette di discriminare i pixel normali da quelli anomali
45. Approccio Proposto
Patch-Ganomaly
Inferenza
Anomaly
Score Map
> Valori di anomaly score elevati sono associati a pixel anomali
> La soglia di decisione definisce il confine tra uno score normale e uno score anomalo
> La fase di thresholding permette di ottenere questa soglia
> La soglia permette di discriminare i pixel normali da quelli anomali
Thresholding
Normale
Anomalia
Soglia
46. Approccio Proposto
Patch-Ganomaly
Inferenza
Anomaly
Score Map
> Valori di anomaly score elevati sono associati a pixel anomali
> La soglia di decisione definisce il confine tra uno score normale e uno score anomalo
> La fase di thresholding permette di ottenere questa soglia
> La soglia permette di discriminare i pixel normali da quelli anomali
Thresholding Maschera di
Anomalia
Regione Anomala
Regione Normale
Normale
Anomalia
Soglia
48. Thresholding
Approccio Proposto
Patch-Ganomaly
> Estazione delle patch normali dal training set di immagini
> Si valutano gli anomaly score relativi alle patch normali del traning set
> L'istogramma mostra la frequenza degli anomaly score delle patch normali
> Il quantile al 95% degli anomaly score rappresenta la soglia di decisione
Training Set
Patch Normali
Normale
Anomalia
Soglia
49. Thresholding
Approccio Proposto
Patch-Ganomaly
> Estazione delle patch normali dal training set di immagini
> Si valutano gli anomaly score relativi alle patch normali del traning set
> L'istogramma mostra la frequenza degli anomaly score delle patch normali
> Il quantile al 95% degli anomaly score rappresenta la soglia di decisione
Training Set
Patch Normali Modello
Patch-Ganomaly
Anomaly Score
Normale
Anomalia
Soglia
50. Thresholding
Approccio Proposto
Patch-Ganomaly
Training Set
Patch Normali Modello
Patch-Ganomaly
Anomaly Score Istogramma degli
Anomaly Score
Normale
Anomalia
Soglia
> Estazione delle patch normali dal training set di immagini
> Si valutano gli anomaly score relativi alle patch normali del traning set
> L'istogramma mostra la frequenza degli anomaly score relativi alle patch normali
> Il quantile al 95% degli anomaly score rappresenta la soglia di decisione
51. Thresholding
Approccio Proposto
Patch-Ganomaly
Istogramma degli
Anomaly Score
Quantile al 95 %
Normale
Anomalia
Soglia
Soglia
di
decisione
> Estazione delle patch normali dal training set di immagini
> Si valutano gli anomaly score relativi alle patch normali del traning set
> L'istogramma mostra la frequenza degli anomaly score relativi alle patch normali
> Il quantile al 95% degli anomaly score rappresenta la soglia di decisione
52. Esperimenti
• Dataset e Modelli di riferimento
• Patch-Ganomaly
• TL-Ganomaly
• Post-Processing: apprendimento di filtri
54. Dataset
Esperimenti
Si contraddistinguono tre tipologie di anomalie nel dataset:
> Difetti di tipo 1: sparsi e di piccole dimensioni
> Difetti di tipo 2
> Difetti di tipo 3
Pixel Anomali
55. Dataset
Esperimenti
Si contraddistinguono tre tipologie di anomalie nel dataset:
> Difetti di tipo 1
> Difetti di tipo 2: forme geometriche lineari
> Difetti di tipo 3
Pixel Anomali
56. Dataset
Esperimenti
Si contraddistinguono tre tipologie di anomalie nel dataset:
> Difetti di tipo 1
> Difetti di tipo 2
> Difetti di tipo 3: difetti densi e omogenei
Pixel Anomali
57. Test Set
Esperimenti
In fase di sperimentazione vengono utilizzati due test set:
> Test set Strutturato: composto solamente da immagini aventi lo stesso tipo di difetto
> Test set Generico: formato da immagini di qualunque difetto
Dataset
59. Esperimenti
Modelli di Riferimento
Il modello proposto, Patch-Ganomaly, viene confrontato con due modelli di riferimento:
> Modello Supervionato: Rete Neurale Convoluzionale (CNN) fully-connected
> Modello Semi-Supervisionato: Convolutional Autoencoder
60. Esperimenti
Modelli di Riferimento
Il modello proposto, Patch-Ganomaly, viene confrontato con due modelli di riferimento:
> Modello Supervionato: Rete Neurale Convoluzionale (CNN) fully-connected
> Modello Semi-Supervisionato: Convolutional Autoencoder
Kernel
Conv 2D
Max Pooling Activation
Function
Classification Output
Fully connected Layer
61. Esperimenti
Modelli di Riferimento
Il modello proposto, Patch-Ganomaly, viene confrontato con due modelli di riferimento:
> Modello Supervionato: Rete Neurale Convoluzionale (CNN) fully-connected
> Modello Semi-Supervisionato: Convolutional Autoencoder
Kernel
Conv 2D
Conv Transpose 2D Activation Map Latent Vector
Batch Normalization 2D
62. Esperimenti
Modelli di Riferimento
> Addestrati sfruttando la tecnica del patch-wise
training
> Training set di 30.000 patch
Anomaly Score:
> Autoencoder: errore di ricostruzione
> CNN: binary cross entropy
Kernel
Conv 2D
Conv Transpose 2D Activation Map Latent Vector
Batch Normalization 2D
Kernel
Conv 2D
Max Pooling Activation
Function
Classification Output
Fully connected Layer
63. Esperimenti
Modelli di Riferimento
> Addestrati sfruttando la tecnica del patch-wise
training
> Training set di 30.000 patch
Anomaly Score:
> Autoencoder: errore di ricostruzione
> CNN: binary cross entropy
Kernel
Conv 2D
Conv Transpose 2D Activation Map Latent Vector
Batch Normalization 2D
64. Esperimenti
Modelli di Riferimento
> Addestrati sfruttando la tecnica del patch-wise
training
> Training set di 30.000 patch
Anomaly Score:
> Autoencoder: errore di ricostruzione
> CNN: binary cross entropy
Kernel
Conv 2D
Max Pooling Activation
Function
Classification Output
Fully connected Layer
65. Esperimenti
• Dataset e Modelli di riferimento
• Patch-Ganomaly
• TL-Ganomaly
• Post-Processing: apprendimento di filtri
67. Difetti di tipo 1
Esperimenti
Immagine 1
Immagine 2
Immagine Originale
Maschera di Anomalia
Immagine Originale
Maschera di Anomalia
Pixel Anomali
Pixel Anomali
69. Esperimenti
Difetti di tipo 1
Immagine 2
Convolutional Autoencoder
CNN Fully-connected
Patch-Ganomaly
Pixel Riconosciuti Anomali
Pixel Anomali
70. Difetti di tipo 2
Esperimenti
Immagine 3
Immagine 4
Immagine Originale
Maschera di Anomalia
Immagine Originale
Maschera di Anomalia
Pixel Anomali
Pixel Anomali
73. Difetti di tipo 3
Esperimenti
Immagine 5
Immagine 6
Immagine Originale
Maschera di Anomalia
Immagine Originale
Maschera di Anomalia
Pixel Anomali
Pixel Anomali
79. > Si basa sul modello Patch-Ganomaly
> Introduce la tecnica del transfer learning Patch-Ganomaly
> Sfrutta la rete pre-addestrata VGG16
Approccio Proposto
TL-Ganomaly
80. > Si basa sul modello Patch-Ganomaly
> Introduce la tecnica del transfer learning Patch-Ganomaly
> Sfrutta la rete pre-addestrata VGG16
Approccio Proposto
TL-Ganomaly
Average Pooling
Conv 2D
Max Pooling ReLU Classification Output
Fully connected Layer
81. > Rete di classificazione addestrata su 1000 classi
> Gestisce in input immagini aventi dimensione 224 x 224
> Riduce l'input di un fattore 32
Approccio Proposto
VGG16
Average Pooling
Conv 2D
Max Pooling ReLU Classification Output
Fully connected Layer
TL-Ganomaly
83. Approccio Proposto
Adattamento della VGG16
TL-Ganomaly
32 x 32 x 64
16 x 16 x 128
8 x 8 x 256
4 x 4 x 256
2 x 2 x 512
Kernel: 2 x 2
1 x 1 x 100
Patch-Ganomaly
Generatore
Discriminatore
Reale
Generata
Encoder Decoder Encoder
Classficatore
VGG16 Adattata
> Estrazione della rappresentazione latente
> Riduzione dei layer della VGG16
> Adattamento della rappresentazione latente della
VGG16 al vettore latente di Patch-Ganomaly
> L'encoder del modello TL-Ganomaly diventa la
VGG16 adattata
84. Approccio Proposto
Adattamento della VGG16
TL-Ganomaly
32 x 32 x 64
16 x 16 x 128
8 x 8 x 256
4 x 4 x 256
2 x 2 x 512
1 x 1 x 100
Patch-Ganomaly
Generatore
Discriminatore
Reale
Generata
Encoder Decoder Encoder
Classficatore
> Estrazione della rappresentazione latente
> Riduzione dei layer della VGG16
> Adattamento della rappresentazione latente della
VGG16 al vettore latente di Patch-
Ganomaly
> L'encoder del modello TL-Ganomaly diventa la
VGG16 adattata
VGG16 Adattata
85. Approccio Proposto
Adattamento della VGG16
TL-Ganomaly
32 x 32 x 64
16 x 16 x 128
8 x 8 x 256
4 x 4 x 256
2 x 2 x 512
1 x 1 x 100
Generatore
Discriminatore
Reale
Generata
Decoder
Classficatore
VGG 16
Adattata
VGG 16
Adattata
TL-Ganomaly
VGG16 Adattata
> Estrazione della rappresentazione latente
> Riduzione dei layer della VGG16
> Adattamento della rappresentazione latente della
VGG16 al vettore latente di Patch-Ganomaly
> L'encoder del modello TL-Ganomaly diventa la
VGG16 adattata
89. Difetti di tipo 1
Esperimenti
Immagine 1
Immagine 2
Immagine Originale
Maschera di Anomalia
Immagine Originale
Maschera di Anomalia
Pixel Anomali
Pixel Anomali
91. Esperimenti
Difetti di tipo 1
Immagine 2
TL-Ganomaly
Patch-Ganomaly
Pixel Riconosciuti Anomali
Pixel Anomali
92. Difetti di tipo 2
Esperimenti
Immagine 3
Immagine 4
Immagine Originale
Maschera di Anomalia
Immagine Originale
Maschera di Anomalia
Pixel Anomali
Pixel Anomali
93. Esperimenti
Difetti di tipo 2
Immagine 3
TL-Ganomaly
Patch-Ganomaly
Pixel Riconosciuti Anomali
Pixel Anomali
94. Esperimenti
Difetti di tipo 2
Immagine 4
TL-Ganomaly
Patch-Ganomaly
Pixel Riconosciuti Anomali
Pixel Anomali
95. Difetti di tipo 3
Esperimenti
Immagine 5
Immagine 6
Immagine Originale
Maschera di Anomalia
Immagine Originale
Maschera di Anomalia
Pixel Anomali
Pixel Anomali
96. Esperimenti
Difetti di tipo 3
Immagine 5
TL-Ganomaly
Patch-Ganomaly
Pixel Riconosciuti Anomali
Pixel Anomali
97. Esperimenti
Difetti di tipo 3
Immagine 6
TL-Ganomaly
Patch-Ganomaly
Pixel Riconosciuti Anomali
Pixel Anomali
101. Approccio Proposto
Post-Processing
> Migliorativo per i problemi di segmentazione
> Applicazione di un filtro all'anomaly score map
Anomaly Score Map Filtro Anomaly Score Map
Filtrata
Maschera di Anomalia
102. Approccio Proposto
Obiettivi:
Migliorare le soluzioni fornite per la segmentazione delle regioni normale e anomala
Soluzioni:
Modello Conv-Processing
Post-Processing
105. Addestramento
> Rete Neurale: un layer Convoluzionale
> Training set etichettato: anomaly score map e
maschere di anomalia
> Apprende i parametri del kernel
convoluzionale
Approccio Proposto
Kernel: 3 x 3
x x'
Input Output
Conv 2D
Sigmoid
106. Esperimenti
• Dataset e Modelli di riferimento
• Patch-Ganomaly e TL-Ganomaly
• Post-Processing: apprendimento di filtri
107. Primo confronto tra:
> Patch-Ganomaly con filtro convoluzionale costante in
post-processing
> Patch-Ganomaly con filtro convoluzionale fornito dal
modello Conv-Processing (PG-Detector)
Esperimenti
Post-Processing
Modello
Patch-Ganomaly
0,11 0,11 0,11
0,11 0,11 0,11
0,11 0,11 0,11
Modello
Patch-Ganomaly
0,36 0 0,28
0,35 0,4 0,37
0,25 0,26 0,31
PG-Detector
Filtro Conv. Costante
Filtro Conv. Appreso
108. Secondo confronto tra:
> TL-Ganomaly con filtro convoluzionale costante in
post-processing
> TL-Ganomaly con filtro convoluzionale fornito dal
modello Conv-Processing (TL-Detector)
Esperimenti
Post-Processing
Modello
TL-Ganomaly
Modello
TL-Ganomaly
TL-Detector
Filtro Conv. Appreso
0,17 0 0,23
0,2 0,05 0,24
0,21 0,17 0,21
0,11 0,11 0,11
0,11 0,11 0,11
0,11 0,11 0,11
Filtro Conv. Costante
111. Esperimenti
Difetti di tipo 1
PG-Detector
Pixel Riconosciuti Anomali
Pixel Anomali
Patch-Ganomaly Conv. Costante
PG-Detector
112. Esperimenti
Difetti di tipo 2
PG-Detector
Pixel Riconosciuti Anomali
Pixel Anomali
PG-Detector
Patch-Ganomaly Conv. Costante
113. Esperimenti
Difetti di tipo 3
PG-Detector
Pixel Riconosciuti Anomali
Pixel Anomali
PG-Detector
Patch-Ganomaly Conv. Costante
114. Su un test set di 120 immagini:
Risultati
Esperimenti
> PG-Detector apporta migliorie in termini di
Precision
> Fornisce soluzioni con meno falsi positivi
PG-Detector