La risposta di Fondazione Aldini Valeriani per mixare proposte tecniche con le più avanzate tecnologie. Un laboratorio per progettare, creare e sviluppare. Un'officina per prototipare e collaudare. Una rete di esperienze, di eccellenze e abilità territoriali fanno di LabTECH un polo di connessione tra i più importanti istituti di ricerca e gli enti di certificazione.
This document summarizes a study using NMR spectroscopy and chemometrics to analyze metabolic patterns in kidney transplant patients at different stages of recovery. Urine samples from patients were analyzed using NMR, and the resulting spectral data were preprocessed, aligned, normalized, and scaled before multivariate analysis. Initial analysis of 18 patients found metabolic patterns correlated with recovery success. Further analysis of 27 patients with systematic sampling over 40 days identified recovery stages of pre-discharge, post-operation, and follow-up. Additional work is needed to improve signal alignment and class boundaries and identify key metabolic signals.
La risposta di Fondazione Aldini Valeriani per mixare proposte tecniche con le più avanzate tecnologie. Un laboratorio per progettare, creare e sviluppare. Un'officina per prototipare e collaudare. Una rete di esperienze, di eccellenze e abilità territoriali fanno di LabTECH un polo di connessione tra i più importanti istituti di ricerca e gli enti di certificazione.
This document summarizes a study using NMR spectroscopy and chemometrics to analyze metabolic patterns in kidney transplant patients at different stages of recovery. Urine samples from patients were analyzed using NMR, and the resulting spectral data were preprocessed, aligned, normalized, and scaled before multivariate analysis. Initial analysis of 18 patients found metabolic patterns correlated with recovery success. Further analysis of 27 patients with systematic sampling over 40 days identified recovery stages of pre-discharge, post-operation, and follow-up. Additional work is needed to improve signal alignment and class boundaries and identify key metabolic signals.
Presentazione "Sviluppo e implementazione di un modello di ottimizzazione per...MarziaPaschini
Presentazione della Tesi Magistrale "Sviluppo e implementazione di un modello di ottimizzazione per un'efficiente schedulazione delle attività del personale"
Introduzione ai Big Data e alla scienza dei dati - Machine LearningVincenzo Manzoni
Lezione 3 del corso di analisi dati tenuto al Palazzolo Digital Hub (Palazzolo sull'Oglio, Brescia) nel 2014. In questa terza lezione si introducono alcuni algoritmi di machine learning.
Stefano Bragaglia MSc Thesis, awarded as Best Italian thesis in AI 2009/2010Stefano Bragaglia
My MSc Thesis (only in Italian) introduces Logic Programs with Annotated Disjunction (LPADs) a Prolog's probabilistic extension, and my work on CPLINT (https://sites.google.com/a/unife.it/ml/cplint) to reason on them. My goal was to implement and test several approximated algorithms to balance speed and accuracy when solving probabilistic problems. It was awarded by the Italian Association for Artificial Intelligence (AIxIA) as the best Italian thesis in Artificial Intelligence of 2009/2010.
Esercitazioni che nascono dall’esperienza sviluppata ed illustrata in “SCATOL8®: A Path To Sustainability” , attraverso l’ideazione e la realizzazione di progetti specifici in ambiente Scatol8®.
Le esercitazioni impiegano, approfondiscono ed espandono la metodologia contenuta nella Sezione 10 “Unità didattiche”;
sono un supporto didattico ideato e realizzato per gli Studenti del Corso di Operations Management della Scuola di Management ed Economia dell’Università degli Studi di Torino.
Introduzione ai Big Data e alla scienza dei dati - Exploratory Data AnalysisVincenzo Manzoni
Lezione 2 del corso di analisi dati tenuto al Palazzolo Digital Hub (Palazzolo sull'Oglio, Brescia) nel 2014. Seconda lezione dedicata all'Exploratory Data Analysis.
Tesi di laurea triennale
Esplorare le tecniche statistiche nel data mining, comprenderne in linee generali le modalità di utilizzo in ambito aziendale ed analizzarne la diffusione in Italia.
LOD are freely usable data without a licence and organized as a graph. This format helps applications to go through them and to get knowledge exactly as a human being. While the available Linked Data sources are increasing in quantity and diversity, their usage is still limited. For this reason SPLOD has been developed. SPLOD is a web application designed to help people query LODs and guide them through the creation and the visualization of their own dataset. It is based on a highly modular architecture that allows to overcome every quality loss of the data. Thanks to a fine-grained guide of faceted search and the readability of natural language interface, users are guided step-by-step in the construction of their own query. Suggestions are provided at each step by minimising syntactic and semantic errors. Through the integration in SPOD, a social platform part of ROUTE-TO-PA, a three-years HORIZON 2020 Europen Funded project, SPLOD provides an intuitive three step wizard for the creation of meaningful and even complex visualizations. The user does not need to know the data schema of the RDF dataset queried and may not be aware of SPARQL and all other Semantic Web technologies.
Conferenza Kube Sistemi: Lean logistics and manufacturingConcordia Srl
LEAN LOGISTICS & MANUFACTURING | I CONCETTI DELLA LEAN NEI PROCESSI DEL WMS
“Sono già un paio di volte che quel cliente ci sollecita la consegna, ma non abbiamo la merce pronta da spedire: cosa possiamo fare per accontentarlo la prossima volta?”
“I responsabili di magazzino si lamentano perché c’è troppo lavoro da fare, eppure dovrebbero solo occuparsi di prendere in carico le spedizioni, verificare le giacenze e far eseguire i prelievi…”
“Com’è possibile che i carrellisti di magazzino perdano dieci minuti ad ogni missione, perché la merce non si trova dove dovrebbe?”
Frasi di questo genere sono molto frequenti in aziende che si occupano di logistica e denotano problemi che spesso difficile da affrontare. Le situazioni descritte, tuttavia, per quanto a prima vista scollegate tra loro, sono generate da un fattore comune: lo spreco, spesso inconsapevole, di tempo e risorse.
Una risposta a questi problemi viene dall’approccio Lean, la filosofia aziendale che mette il cliente al centro dell’attenzione e che considera “valore” tutte quelle attività che contribuiscono a soddisfare le esigenze, anche implicite, del cliente finale. La massimizzazione del valore passa attraverso l’eliminazione degli sprechi, attività che ostacolano il flusso dei materiali e delle informazioni e che possono essere evitate senza ricadute negative sulle prestazioni aziendali.
Nel corso dell’intervento si esporranno i concetti fondanti del “Lean Thinking” evidenziando come questi concetti si ritrovano nelle applicazioni WMS di magazzino.
Relatore: Andrea Pasotti | Responsabile di Ricerca presso CSMT – Università di Brescia .
Relatore: Davide Pautasso | Sales Manager Kube Sistemi.
METODOLOGIE E TECNOLOGIE ABILITANTI PER IL SUPPORTO ALLA LOGISTICAlogisticaefficiente
Prof. Ing. Roberto Revetria PhD, Professore Ordinario, Coordinatore Sezione MIG, Dipartimento DIME, Università degli Studi di Genova, Visiting Professor Bauman Moscow Technical University
I dati, in sé, possiedono valore solo in forma potenziale ovvero sono solo un contenitore dell’informazione. La statistica applicata, e più in generale l’analisi dati, fornisce la “tecnologia” necessaria per trasformare i dati in informazione utile per chi deve prendere importanti decisioni aziendali. L’obiettivo ultimo dell’analisi dati è costruire un modello avanzato che utilizza le più recenti metodologie di machine learning e di statistica avanzata per comprendere il presente e prevedere il futuro.
Durante questo intervento mostro i risultati ottenuti applicando le metodologie di analisi dati ai consumi energetici di un impianto industriale allo scopo di ottimizzare i consumi individuando sacche di inefficienza. Grazie a questo approccio, le conoscenze acquisite consentono di attuare politiche di risparmio energetico dove una visione del futuro è trasformata in una decisione nel presente, e dove i modelli analitici vengono trasformati in interventi di manutenzione.
Presentazione "Sviluppo e implementazione di un modello di ottimizzazione per...MarziaPaschini
Presentazione della Tesi Magistrale "Sviluppo e implementazione di un modello di ottimizzazione per un'efficiente schedulazione delle attività del personale"
Introduzione ai Big Data e alla scienza dei dati - Machine LearningVincenzo Manzoni
Lezione 3 del corso di analisi dati tenuto al Palazzolo Digital Hub (Palazzolo sull'Oglio, Brescia) nel 2014. In questa terza lezione si introducono alcuni algoritmi di machine learning.
Stefano Bragaglia MSc Thesis, awarded as Best Italian thesis in AI 2009/2010Stefano Bragaglia
My MSc Thesis (only in Italian) introduces Logic Programs with Annotated Disjunction (LPADs) a Prolog's probabilistic extension, and my work on CPLINT (https://sites.google.com/a/unife.it/ml/cplint) to reason on them. My goal was to implement and test several approximated algorithms to balance speed and accuracy when solving probabilistic problems. It was awarded by the Italian Association for Artificial Intelligence (AIxIA) as the best Italian thesis in Artificial Intelligence of 2009/2010.
Esercitazioni che nascono dall’esperienza sviluppata ed illustrata in “SCATOL8®: A Path To Sustainability” , attraverso l’ideazione e la realizzazione di progetti specifici in ambiente Scatol8®.
Le esercitazioni impiegano, approfondiscono ed espandono la metodologia contenuta nella Sezione 10 “Unità didattiche”;
sono un supporto didattico ideato e realizzato per gli Studenti del Corso di Operations Management della Scuola di Management ed Economia dell’Università degli Studi di Torino.
Introduzione ai Big Data e alla scienza dei dati - Exploratory Data AnalysisVincenzo Manzoni
Lezione 2 del corso di analisi dati tenuto al Palazzolo Digital Hub (Palazzolo sull'Oglio, Brescia) nel 2014. Seconda lezione dedicata all'Exploratory Data Analysis.
Tesi di laurea triennale
Esplorare le tecniche statistiche nel data mining, comprenderne in linee generali le modalità di utilizzo in ambito aziendale ed analizzarne la diffusione in Italia.
LOD are freely usable data without a licence and organized as a graph. This format helps applications to go through them and to get knowledge exactly as a human being. While the available Linked Data sources are increasing in quantity and diversity, their usage is still limited. For this reason SPLOD has been developed. SPLOD is a web application designed to help people query LODs and guide them through the creation and the visualization of their own dataset. It is based on a highly modular architecture that allows to overcome every quality loss of the data. Thanks to a fine-grained guide of faceted search and the readability of natural language interface, users are guided step-by-step in the construction of their own query. Suggestions are provided at each step by minimising syntactic and semantic errors. Through the integration in SPOD, a social platform part of ROUTE-TO-PA, a three-years HORIZON 2020 Europen Funded project, SPLOD provides an intuitive three step wizard for the creation of meaningful and even complex visualizations. The user does not need to know the data schema of the RDF dataset queried and may not be aware of SPARQL and all other Semantic Web technologies.
Conferenza Kube Sistemi: Lean logistics and manufacturingConcordia Srl
LEAN LOGISTICS & MANUFACTURING | I CONCETTI DELLA LEAN NEI PROCESSI DEL WMS
“Sono già un paio di volte che quel cliente ci sollecita la consegna, ma non abbiamo la merce pronta da spedire: cosa possiamo fare per accontentarlo la prossima volta?”
“I responsabili di magazzino si lamentano perché c’è troppo lavoro da fare, eppure dovrebbero solo occuparsi di prendere in carico le spedizioni, verificare le giacenze e far eseguire i prelievi…”
“Com’è possibile che i carrellisti di magazzino perdano dieci minuti ad ogni missione, perché la merce non si trova dove dovrebbe?”
Frasi di questo genere sono molto frequenti in aziende che si occupano di logistica e denotano problemi che spesso difficile da affrontare. Le situazioni descritte, tuttavia, per quanto a prima vista scollegate tra loro, sono generate da un fattore comune: lo spreco, spesso inconsapevole, di tempo e risorse.
Una risposta a questi problemi viene dall’approccio Lean, la filosofia aziendale che mette il cliente al centro dell’attenzione e che considera “valore” tutte quelle attività che contribuiscono a soddisfare le esigenze, anche implicite, del cliente finale. La massimizzazione del valore passa attraverso l’eliminazione degli sprechi, attività che ostacolano il flusso dei materiali e delle informazioni e che possono essere evitate senza ricadute negative sulle prestazioni aziendali.
Nel corso dell’intervento si esporranno i concetti fondanti del “Lean Thinking” evidenziando come questi concetti si ritrovano nelle applicazioni WMS di magazzino.
Relatore: Andrea Pasotti | Responsabile di Ricerca presso CSMT – Università di Brescia .
Relatore: Davide Pautasso | Sales Manager Kube Sistemi.
METODOLOGIE E TECNOLOGIE ABILITANTI PER IL SUPPORTO ALLA LOGISTICAlogisticaefficiente
Prof. Ing. Roberto Revetria PhD, Professore Ordinario, Coordinatore Sezione MIG, Dipartimento DIME, Università degli Studi di Genova, Visiting Professor Bauman Moscow Technical University
I dati, in sé, possiedono valore solo in forma potenziale ovvero sono solo un contenitore dell’informazione. La statistica applicata, e più in generale l’analisi dati, fornisce la “tecnologia” necessaria per trasformare i dati in informazione utile per chi deve prendere importanti decisioni aziendali. L’obiettivo ultimo dell’analisi dati è costruire un modello avanzato che utilizza le più recenti metodologie di machine learning e di statistica avanzata per comprendere il presente e prevedere il futuro.
Durante questo intervento mostro i risultati ottenuti applicando le metodologie di analisi dati ai consumi energetici di un impianto industriale allo scopo di ottimizzare i consumi individuando sacche di inefficienza. Grazie a questo approccio, le conoscenze acquisite consentono di attuare politiche di risparmio energetico dove una visione del futuro è trasformata in una decisione nel presente, e dove i modelli analitici vengono trasformati in interventi di manutenzione.
1. Kode // R
Marco Calderisi, PhD
m.calderisi@kode-solutions.net
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
4. Chi “sono”
Prof. Ulrici
Dipartimento di Scienze Agrarie
e degli Alimenti, Università di
Modena e Reggio Emilia
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
5. Chi “sono”
Prof. Ulrici
Dipartimento di Scienze Agrarie
e degli Alimenti, Università di
Modena e Reggio Emilia
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
6. Outline
Kode
R
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
7. Idea
In tanti contesti, una gran quantità di dati viene raccolta, ma non
sempre è elaborata bene o in modo sufficientemente
approfondito.
Molti di questi dati sono grezzi e talvolta rimangono inutilizzati.
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
8. Idea
In tanti contesti, una gran quantità di dati viene raccolta, ma non
sempre è elaborata bene o in modo sufficientemente
approfondito.
Molti di questi dati sono grezzi e talvolta rimangono inutilizzati.
Raw data
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
9. Idea
In tanti contesti, una gran quantità di dati viene raccolta, ma non
sempre è elaborata bene o in modo sufficientemente
approfondito.
Molti di questi dati sono grezzi e talvolta rimangono inutilizzati.
BOH!!!
Raw data
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
10. Idea
In tanti contesti, una gran quantità di dati viene raccolta, ma non
sempre è elaborata bene o in modo sufficientemente
approfondito.
Molti di questi dati sono grezzi e talvolta rimangono inutilizzati.
Raw data
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
11. Idea
Raccolta e strutturazione dei dati
(database)
Elaborazione
Esposizione del risultati
(data visualization)
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
12. Idea
Software Raccolta e strutturazione dei dati
(database)
Elaborazione
Esposizione del risultati
(data visualization)
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
13. Chi siamo
Società (srl) di consulenza in ambito scientifico
Composta da:
Manganaro
Io
Carluccio Zedda
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
14. Cosa facciamo
ANALISI DATI SOLUZIONI SOFTWARE
Processi industriali Chemoinformatica
• {Controllo di processo, ottimizzazione di • {Database, strumenti analitici, strumenti
prodotto, ricerca industriale} predittivi}
Data mining Gestione dati
• {Machine learning, Analisi Socio- • {Pentaho, MySQL, PostgreSQL, PHP}
Economiche, Web Analytics}
OPEN DATA FORMAZIONE
Assistenza a pubbliche Analisi statistica (R, Statistica)
amministrazioni per “liberare” i dati Trattamento dati (Pentaho, MySql/PHP, Google
Refine)
Lettura, elaborazione ed
Chemoinformatica (metodi di base, QSAR/
interpretazione dei dataset aperti
QSPR)
Data journalism (filosofia e strumenti)
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
15. Lavori in corso
ANALISI DATI
• Sistema di Gestione e Controllo di Impianti di Trattamento Termico - (MIUR 2007)
• “Orti sociali” - (ISE-CNR)
• Medical360 - (POR CREO FESR 2007-2013 Reg. Toscana)
CHEMOINFORMATICA
• VEGA (Virtual models for property Evaluation of chemicals within a Global
Architecture)
OPEN DATA
• OpenMIUR (analisi dati “Scuola in chiaro”)
• PRO-DEMO (analisi del contesto socio-demografico per aree subcomunali)
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
16. Progetti interni
Sviluppo funzioni con R
Applicativi software QSAR/QSPR
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
17. R
do.pls
copro (COntrollo di PROcesso)
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
18. R // do.pls
Si basa sul package pls (R.Weherens, BH Mevik, KH Liland)
http://cran.r-project.org/web/packages/pls/
http://mevik.net/work/software/pls.html
mvr(formula, ncomp, data, subset,
method = c("kernelpls", "widekernelpls", "simpls",
"oscorespls", "cppls", "svdpc"),
scale = FALSE,
validation = c("none", "CV", "LOO"), ...)
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
19. R // do.pls
Method
• "kernelpls" = particularly efficient when the number of objects
is (much) larger than the number of variables. The results are
equal to the NIPALS algorithm
• "widekernelpls" = efficient when the number of variables is
(much) larger than the number of observations (es. 12x18000)
• "simpls" = SIMPLS is much faster than the NIPALS
• "oscorespls" = orthogonal scores algorithm, as described in
Martens and Næs (1989). One of the two “classical” PLSR
algorithms
• "cppls" = Canonical Powered PLS is a generalisation of PLS
incorporating discrete and continuous responses (also
simultaneously)
• "svdpc" = pcr
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
20. R // do.pls
Obiettivo: eseguire una PLS con un comando unico. Questa
funzione deve essere in grado di:
• trattare diversi formati di input
• fornire tutti gli output necessari ad una prima analisi del sistema
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
21. R // do.pls
per calcolare la Variance Importance in Projection si utilizza VIP.R
(scritto da BH Mervik), che, al momento, funziona solo su modelli con
una sola variabile risposta, basati sull’orthogonal scores algorithm.
Inoltre, per semplicità di uso è stato implementato un solo tipo di cross
validazione: il Leave One Out
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
22. R // do.pls
Input:
• x è la matrice dei predittori, accetta sia matrici che dataframe
• y è la variabile risposta, può essere un semplice vettore
• ncomp è il numero di variabili latenti richiesto (opzionale)
• scale indica il tipo di scaling: attualmente sono stati implementati
mean centering (che è il default) ed autoscaling
• graph indica il tipo di grafico, linea o punti, per i predittori (opzionale)
versione concisa: mod <- do.pls(x,y)
versione estesa: mod <- do.pls(x,y, ncomp,
scale=c("mean", "autoscaling"),
graph=c("line", "points"))
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
23. R // do.pls
Input:
• ncomp, se non specificato viene scelto il numero di LV
corrispondente al RMSECV minore
• graph, se non specificato, in caso il numero di predittori sia inferiore
a 30, nei grafici dei coefficienti e dei VIP si usano i punti anzichè la
linea
Da fare:
• altri pretrattamenti (Pareto, SNV, normalizzazione,...)
• validazione/predizione
• CV tipo “venetian blinds”
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
24. R // do.pls
L’output è organizzato in forma di list, alle voci della quale si può
accedere con il simbolo $, ad esempio mod$coefficients
• modello, è il normale output di mvr
• performance, varianza spiegata di predittori e variabile risposta,
RMSE, RMSECV, numero di variabili latenti selezionate
• VIP
• coefficients
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
25. R // do.pls
Output grafici:
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
26. R // do.pls
Output grafici:
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
27. R // do.pls
Esempio:
require(pls)
attach(gasoline)
mod1 <- do.pls(NIR, octane)
mod2 <- do.pls(NIR, octane, 3)
detach(gasoline)
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
28. R // copro
copro (Controllo di PROcesso) è un insieme di funzioni pensate per
eseguire i passi base di un controllo di processo multivariato.
FUNZIONI:
pcactrl
pcactrl_pred
contQ
contQ_pred
contT
contT_pred
scoreplot
loadplot
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
29. R // copro
fun pcactrl pcactrl_pred
input • d, dati • d, dati
• n, numero PC • n, numero PC
• cl, livello di confidenza • cl, livello di confidenza
• newd, nuovi dati
output • autovalori! • new_scores
• scores! • loadings
• loadings • T2.newd, matrice dei residui T2
• T2, matrice dei residui T2! • Q.newd, matrice dei residui Q
• Q, matrice dei residui Q • tnewd.cont, matrice dei contributi di
• T2lim, limite di confidenza per i ogni variabile ai residui
residui T2 T2qnewd.cont, matrice dei contributi
• Qlim, limite di confidenza per i di ogni variabile ai residui Q
residui Q
• t.cont, matrice dei contributi T2
• q.cont, matrice dei contributi di ogni
variabile ai residui Q
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
30. R // copro
fun input output
contQ • modello PCA • grafico dei contributi
• numero campione
contQ_pred • modello PCA (da pcactrl) • grafico dei contributi. i limiti
• predizione su modello (da corrispondono ai valori dei contributi
pcactrl_pred) massimo e minimo del modello di
• numero campione riferimento. non sono riferiti ad una
variabile specifica
contT • modello PCA • grafico dei contributi
• numero campione
cont_pred • modello PCA (da pcactrl) • grafico dei contributi. i limiti
• predizione su modello (da corrispondono ai valori dei contributi
pcactrl_pred) massimo e minimo del modello di
• numero campione riferimento. non sono riferiti ad una
variabile specifica
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
31. R // copro
fun input output
scoreplot • mod, modello PCA (da • score plot con campioni predetti
pcactrl)
• new, predizione su modello
(da pcactrl_pred)
• comp1, pc asse x
• comp2, pc asse y
loadplot • modello PCA (da pcactrl) • loadings plot
• comp1, pc asse x
• comp2, pc asse y
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
32. R // Gruppo R in chemiometria
do.pls è stata (recentemente) implementata nel software
“chemometrics menu”
copro lo sarà
Workshop di Chemiometria
Pavia 21-23 Maggio 2012
33. grazie per
l’attenzione
Marco Calderisi, PhD
m.calderisi@kode-solutions.net
kode-solutions.net
Workshop di Chemiometria
Pavia 21-23 Maggio 2012