La presentazione è stata fatta in occasione del raduno annuale open data sicilia ( 2018). La presentazione introduce OntoPiA e alcuni modelli ontologici sulle persone e sui ruoli delle persone.
OntoPiA e il knowledge graph della pubblica amministrazione italianaGiorgia Lodi
La presentazione è stata fatta in occasione di corsi di formazione presso la rRegione Campania organizzati da ForumPA. La presentazione si suddivide in due parti principali: una descrizione estesa di OntoPiA, la rete di ontologie e vocabolari controllati della pubblica amministrazione italiana, e i suoi principi di modellazione e una descrizione del processo di produzione di Linked (Open) Data mediante lo standard R2RML
Interoperabilità semantica: metadatazione e ontologie per la PAGiorgia Lodi
La presentazione è stata fatta in occasione di un corso di formazione presso la regione Umbria nel 2018 su interoperabilità semantica e ontologie. La presentazione include un esempio di mappatura di un dataset della regione sulle strutture ricettive rispetto alla relativa ontologia di OntoPiA (ACCO-AP_IT) e una descrizione dell'ontologia dei servizi pubblici CPSV-AP_IT
Open data e big data: le potenzialità offerte per la PAGiorgia Lodi
La presentazione è stata fatta in occasione di un corso di formazione presso alcuni comuni della Regione Veneto. La presentazione spazia su diversi temi dell'open data, big data, condivisione di dati (principio once-only), ontologie
Exchange and Consumption of Huge RDF DataMario Arias
Huge RDF datasets are currently exchanged on textual RDF formats, hence consumers need to post-process them using RDF stores for local consumption, such as indexing and SPARQL query. This results in a painful task requiring a great effort in terms of time and compu- tational resources. A first approach to lightweight data exchange is a compact (binary) RDF serialization format called HDT. In this paper, we show how to enhance the exchanged HDT with additional structures to support some basic forms of SPARQL query resolution without the need of "unpacking" the data. Experiments show that i) with an exchanging ef- ficiency that outperforms universal compression, ii) post-processing now becomes a fast process which iii) provides competitive query performance at consumption.
FOOPS!: An Ontology Pitfall Scanner for the FAIR principlesdgarijo
Slides presented at the DBpedia Day, at the Semantcis conference in 2021. FOOPS! (available at https://w3id.org/foops) is a validator based on the FAIR principles that will guide users when conforming their ontologies to them. For each principle, FOOPS! runs a series of tests and notifies errors, suggestions and ways to conform to the best practices.
OntoPiA e il knowledge graph della pubblica amministrazione italianaGiorgia Lodi
La presentazione è stata fatta in occasione di corsi di formazione presso la rRegione Campania organizzati da ForumPA. La presentazione si suddivide in due parti principali: una descrizione estesa di OntoPiA, la rete di ontologie e vocabolari controllati della pubblica amministrazione italiana, e i suoi principi di modellazione e una descrizione del processo di produzione di Linked (Open) Data mediante lo standard R2RML
Interoperabilità semantica: metadatazione e ontologie per la PAGiorgia Lodi
La presentazione è stata fatta in occasione di un corso di formazione presso la regione Umbria nel 2018 su interoperabilità semantica e ontologie. La presentazione include un esempio di mappatura di un dataset della regione sulle strutture ricettive rispetto alla relativa ontologia di OntoPiA (ACCO-AP_IT) e una descrizione dell'ontologia dei servizi pubblici CPSV-AP_IT
Open data e big data: le potenzialità offerte per la PAGiorgia Lodi
La presentazione è stata fatta in occasione di un corso di formazione presso alcuni comuni della Regione Veneto. La presentazione spazia su diversi temi dell'open data, big data, condivisione di dati (principio once-only), ontologie
Exchange and Consumption of Huge RDF DataMario Arias
Huge RDF datasets are currently exchanged on textual RDF formats, hence consumers need to post-process them using RDF stores for local consumption, such as indexing and SPARQL query. This results in a painful task requiring a great effort in terms of time and compu- tational resources. A first approach to lightweight data exchange is a compact (binary) RDF serialization format called HDT. In this paper, we show how to enhance the exchanged HDT with additional structures to support some basic forms of SPARQL query resolution without the need of "unpacking" the data. Experiments show that i) with an exchanging ef- ficiency that outperforms universal compression, ii) post-processing now becomes a fast process which iii) provides competitive query performance at consumption.
FOOPS!: An Ontology Pitfall Scanner for the FAIR principlesdgarijo
Slides presented at the DBpedia Day, at the Semantcis conference in 2021. FOOPS! (available at https://w3id.org/foops) is a validator based on the FAIR principles that will guide users when conforming their ontologies to them. For each principle, FOOPS! runs a series of tests and notifies errors, suggestions and ways to conform to the best practices.
A Connections-first Approach to Supply Chain OptimizationNeo4j
Supply chain optimization is an unusual balancing act that requires finesse, skill and timely data. Every supply chain’s the key questions to be answered are:
What to Buy? -- what are the factors in determining your optimal product mix and set of suppliers.
How much to Buy? -- what are the most and least popular items at any given time interval
When to Buy? -- long lags in delivery timing may tax limit your flexibility and influence your inventory management practices.
We will illustrate an API-based solution that utilizes a Graph database platform to add demonstrable value to Supply Planning.
Introduction to the Data Web, DBpedia and the Life-cycle of Linked DataSören Auer
Over the past 4 years, the Semantic Web activity has gained momentum with the widespread publishing of structured data as RDF. The Linked Data paradigm has therefore evolved from a practical research idea into
a very promising candidate for addressing one of the biggest challenges
of computer science: the exploitation of the Web as a platform for data
and information integration. To translate this initial success into a
world-scale reality, a number of research challenges need to be
addressed: the performance gap between relational and RDF data
management has to be closed, coherence and quality of data published on
the Web have to be improved, provenance and trust on the Linked Data Web
must be established and generally the entrance barrier for data
publishers and users has to be lowered. This tutorial will discuss
approaches for tackling these challenges. As an example of a successful
Linked Data project we will present DBpedia, which leverages Wikipedia
by extracting structured information and by making this information
freely accessible on the Web. The tutorial will also outline some recent advances in DBpedia, such as the mappings Wiki, DBpedia Live as well as
the recently launched DBpedia benchmark.
This 2-hour lecture was held at Amsterdam University of Applied Sciences (HvA) on October 16th, 2013. It represents a basic overview over core technologies used by ICT companies such as Google, Twitter or Facebook. The lecture does not require a strong technical background and stays at conceptual level.
Strategies for integrating semantic and blockchain technologiesHéctor Ugarte
Semantic Blockchain is the use of Semantic web standards on blockchain based systems. The standards promote common data formats and exchange protocols on the blockchain, making used of the Resource Description Framework (RDF).
Ontology BLONDiE for Bitcoin and Ethereum.
Research how to extract data from Ethereum.
Research how to store RDF data on Ethereum.
Prototype DeSCA: Ethereum application.
JPL’s Institutional Knowledge Graph II: A Foundation for Constructing Enterpr...Enterprise Knowledge
Previously at KMWorld 2021, EK joined JPL to share the vision, approach, and delivery of the Institutional Knowledge Graph (IKG), a centrally maintained, ever-evolving knowledge graph identifying and describing JPL’s enterprise-wide concepts, such as people, organizations, projects, and facilities, and the relationships between them. Since August 2020, the IKG has offered a single source of enterprise information that other JPL applications can leverage to reduce redundancy and out-of-date or inaccurate data. In production for 2 years and now with several releases under its belt, the IKG is beginning to fulfill its promise as a foundational layer in the semantic pyramid for additional taxonomies and knowledge graphs to build upon.
At KM World 2022, Bess Schrader, Senior Solutions Consultant at EK, and Ann Bernath, Software Systems Engineer at JPL, shared a follow-up to the IKG journey including a description of the Enterprise Semantic Platform, a look at new taxonomies and knowledge graphs at JPL (enterprise-wide, others specific to engineering, technical, or science domains) and how they are beginning to leverage the IKG’s foundation of JPL concepts to enrich their dataset into a broader context. This presentation discussed different techniques to federate or synchronize multiple knowledge graphs and how these diverse integrations benefit not only the new datasets, but also the IKG as it continues to pursue its overarching dream--providing answers to questions such as, “Who did what when?”, “Who should you call?”, and “Where is the Robotics Lab?”
Web sémantique, Web de données, Web 3.0, Linked Data... Quelques repères pour...Antidot
Diaporama de la présentation faite à l'occasion du Co-lab Semantique organisé par le consortium Scribo. L'enjeu était de présenter en 45-60min les enjeux du Web sémantique.
An introduction to the FAIR principles and a discussion of key issues that must be addressed to ensure data is findable, accessible, interoperable and re-usable. The session explored the role of the CDISC and DDI standards for addressing these issues.
Presented by Gareth Knight at the ADMIT Network conference, organised by the Association for Data Management in the Tropics, in Antwerp, Belgium on December 1st 2015.
Relational databases were conceived to digitize paper forms and automate well-structured business processes, and still have their uses. But RDBMS cannot model or store data and its relationships without complexity, which means performance degrades with the increasing number and levels of data relationships and data size. Additionally, new types of data and data relationships require schema redesign that increases time to market.
A graph database like Neo4j naturally stores, manages, analyzes, and uses data within the context of connections meaning Neo4j provides faster query performance and vastly improved flexibility in handling complex hierarchies than SQL. Join this webinar to learn why companies are shifting away from RDBMS towards graphs to unlock the business value in their data relationships
Il "Knowledge Graph" della Pubblica Amministrazione ItalianaGraphRM
Incontro del 15/10/2018
Un'unica strada ci porta solo a luoghi tra due località; il valore reale delle strade deriva dall'essere parte di una rete. I dati funzionano allo stesso modo: non è solo avere più dati che ne abilita il valore, ma anche collegarli tra loro” riporta l’autorità di statistica inglese.
A oggi, sempre più realtà industriali strutturano dati attraverso standard del web semantico (linked data). Basti pensare a Google e al suo “knowledge graph” largamente utilizzato e costruito sull’ontologia schema.org, conforme alla specifica JSON-LD.
E nel settore pubblico?
La presentazione mira a illustrare OntoPiA – la rete di ontologie e vocabolari controllati della pubblica amministrazione italiana. La rete fornisce gli schemi per creare e interrogare il knowledge graph della pubblica amministrazione, consentendo anche il suo collegamento nel web dei dati. Verranno presentati sia la metodologia adottata per la creazione di OntoPiA sia il processo di costruzione del knowledge graph, basato su OntoPiA, attraverso il Data & Analytics Framework (DAF) realizzato dal Team per la Trasformazione Digitale.
Speaker: Giorgia Lodi
Link video: https://youtu.be/B3dM_WMPi2Q
A Connections-first Approach to Supply Chain OptimizationNeo4j
Supply chain optimization is an unusual balancing act that requires finesse, skill and timely data. Every supply chain’s the key questions to be answered are:
What to Buy? -- what are the factors in determining your optimal product mix and set of suppliers.
How much to Buy? -- what are the most and least popular items at any given time interval
When to Buy? -- long lags in delivery timing may tax limit your flexibility and influence your inventory management practices.
We will illustrate an API-based solution that utilizes a Graph database platform to add demonstrable value to Supply Planning.
Introduction to the Data Web, DBpedia and the Life-cycle of Linked DataSören Auer
Over the past 4 years, the Semantic Web activity has gained momentum with the widespread publishing of structured data as RDF. The Linked Data paradigm has therefore evolved from a practical research idea into
a very promising candidate for addressing one of the biggest challenges
of computer science: the exploitation of the Web as a platform for data
and information integration. To translate this initial success into a
world-scale reality, a number of research challenges need to be
addressed: the performance gap between relational and RDF data
management has to be closed, coherence and quality of data published on
the Web have to be improved, provenance and trust on the Linked Data Web
must be established and generally the entrance barrier for data
publishers and users has to be lowered. This tutorial will discuss
approaches for tackling these challenges. As an example of a successful
Linked Data project we will present DBpedia, which leverages Wikipedia
by extracting structured information and by making this information
freely accessible on the Web. The tutorial will also outline some recent advances in DBpedia, such as the mappings Wiki, DBpedia Live as well as
the recently launched DBpedia benchmark.
This 2-hour lecture was held at Amsterdam University of Applied Sciences (HvA) on October 16th, 2013. It represents a basic overview over core technologies used by ICT companies such as Google, Twitter or Facebook. The lecture does not require a strong technical background and stays at conceptual level.
Strategies for integrating semantic and blockchain technologiesHéctor Ugarte
Semantic Blockchain is the use of Semantic web standards on blockchain based systems. The standards promote common data formats and exchange protocols on the blockchain, making used of the Resource Description Framework (RDF).
Ontology BLONDiE for Bitcoin and Ethereum.
Research how to extract data from Ethereum.
Research how to store RDF data on Ethereum.
Prototype DeSCA: Ethereum application.
JPL’s Institutional Knowledge Graph II: A Foundation for Constructing Enterpr...Enterprise Knowledge
Previously at KMWorld 2021, EK joined JPL to share the vision, approach, and delivery of the Institutional Knowledge Graph (IKG), a centrally maintained, ever-evolving knowledge graph identifying and describing JPL’s enterprise-wide concepts, such as people, organizations, projects, and facilities, and the relationships between them. Since August 2020, the IKG has offered a single source of enterprise information that other JPL applications can leverage to reduce redundancy and out-of-date or inaccurate data. In production for 2 years and now with several releases under its belt, the IKG is beginning to fulfill its promise as a foundational layer in the semantic pyramid for additional taxonomies and knowledge graphs to build upon.
At KM World 2022, Bess Schrader, Senior Solutions Consultant at EK, and Ann Bernath, Software Systems Engineer at JPL, shared a follow-up to the IKG journey including a description of the Enterprise Semantic Platform, a look at new taxonomies and knowledge graphs at JPL (enterprise-wide, others specific to engineering, technical, or science domains) and how they are beginning to leverage the IKG’s foundation of JPL concepts to enrich their dataset into a broader context. This presentation discussed different techniques to federate or synchronize multiple knowledge graphs and how these diverse integrations benefit not only the new datasets, but also the IKG as it continues to pursue its overarching dream--providing answers to questions such as, “Who did what when?”, “Who should you call?”, and “Where is the Robotics Lab?”
Web sémantique, Web de données, Web 3.0, Linked Data... Quelques repères pour...Antidot
Diaporama de la présentation faite à l'occasion du Co-lab Semantique organisé par le consortium Scribo. L'enjeu était de présenter en 45-60min les enjeux du Web sémantique.
An introduction to the FAIR principles and a discussion of key issues that must be addressed to ensure data is findable, accessible, interoperable and re-usable. The session explored the role of the CDISC and DDI standards for addressing these issues.
Presented by Gareth Knight at the ADMIT Network conference, organised by the Association for Data Management in the Tropics, in Antwerp, Belgium on December 1st 2015.
Relational databases were conceived to digitize paper forms and automate well-structured business processes, and still have their uses. But RDBMS cannot model or store data and its relationships without complexity, which means performance degrades with the increasing number and levels of data relationships and data size. Additionally, new types of data and data relationships require schema redesign that increases time to market.
A graph database like Neo4j naturally stores, manages, analyzes, and uses data within the context of connections meaning Neo4j provides faster query performance and vastly improved flexibility in handling complex hierarchies than SQL. Join this webinar to learn why companies are shifting away from RDBMS towards graphs to unlock the business value in their data relationships
Il "Knowledge Graph" della Pubblica Amministrazione ItalianaGraphRM
Incontro del 15/10/2018
Un'unica strada ci porta solo a luoghi tra due località; il valore reale delle strade deriva dall'essere parte di una rete. I dati funzionano allo stesso modo: non è solo avere più dati che ne abilita il valore, ma anche collegarli tra loro” riporta l’autorità di statistica inglese.
A oggi, sempre più realtà industriali strutturano dati attraverso standard del web semantico (linked data). Basti pensare a Google e al suo “knowledge graph” largamente utilizzato e costruito sull’ontologia schema.org, conforme alla specifica JSON-LD.
E nel settore pubblico?
La presentazione mira a illustrare OntoPiA – la rete di ontologie e vocabolari controllati della pubblica amministrazione italiana. La rete fornisce gli schemi per creare e interrogare il knowledge graph della pubblica amministrazione, consentendo anche il suo collegamento nel web dei dati. Verranno presentati sia la metodologia adottata per la creazione di OntoPiA sia il processo di costruzione del knowledge graph, basato su OntoPiA, attraverso il Data & Analytics Framework (DAF) realizzato dal Team per la Trasformazione Digitale.
Speaker: Giorgia Lodi
Link video: https://youtu.be/B3dM_WMPi2Q
Linee guida web PA: formati, licenze, classificazione, open dataGianfranco Andriola
Previste dalla Direttiva 8/2009 e rivolte a tutte le amministrazioni pubbliche, le Linee guida intendono avviare un processo verso il "miglioramento continuo" della qualità dei siti web pubblici.
OntoPiA e il ruolo delle ontologie negli ecosistemiGiorgia Lodi
La presentazione è stata fatta in occasione dell'evento organizzato dal Ministero dei Beni e delle Attività Culturali e Turismo sul PROGETTO ARCO E I DATI APERTI DEL CATALOGO GENERALE DEI BENI CULTURALI
Il workshop ha illustrato stato dell'arte e scenari evolutivi della piattaforma tecnologica dati.piemonte.it, framework normativo, organizzativo e tecnologico e i business models che derivano dal riuso degli open data. dati piemonte è un "progetto in beta permanente" a significare il continuo movimento che lo caratterizza: l'evoluzione dell'asset normativo che ha portato alla Legge Regionale sugli open data, le funzionalità della piattaforma in termini di catalogo multi-ente con funzionalità di federazione con altri cataloghi e la diffusione del modello organizzativo per l'utilizzo di dati piemonte da parte dei comuni del Piemonte. Ma anche l'avoluzione verso le 5 stelle con l'introduzione di Open Linked data e di componenti semantiche, fino all' analisi dei modelli di Business per il riuso degli open data. Ai partecipanti è stata distribuita una copia del vademecum Linee Guida Siti Web - Open Data.
Sapienza Università di Roma
Anno Accademico 2012 – 2013
Informatica per gli Archivi e le Biblioteche
Prof.ssa Linda Giuva
Prof. Maurizio Caminito
Lezione 1a
Short presentation at Open knowledge Open Arts in Catania 26-27-28/2/2016 about entities seach by likeness in public administration metadata. Geolocalization of entities by mean of telegram bot: https://web.telegram.org/#/im?p=@geontobot
Interfacce applicative al Sistema di Catalogazione del progetto MESSIAHCostantino Landino
Progettazione e sviluppo dell’interfaccia di consultazione del sistema di catalogazione.
Concept Web 2.0
Interoperabilità del sistema di catalogazione con il Portale Italiano della Cultura (PICO) del Ministero dei Beni Culturali.
Framework di interoperabilità basata su standard OAI-PMH
Connettività basata su Web Services
Implementazione di Profili Applicativi su Metadati Dublin Core
Interrogazione di Ontologie dei beni culturali
Compatibilità verso standard descrittivi catalografici, geografici, documentali (ICCD, CIDOC, EXIF, DC,..)
Servizi informativi integrati ed interattivi: Interoperabilitàaccessoinformazione
AIB Toscana Formazione. Corso Accesso all'informazione e collaborazione virtuale.
Parole chiave e linee evolutive, Integrazione ed interoperabilità: modelli e protocolli tradizionali dell'ambito bibliotecario, Transizione a SOA e Cloud (SaaS), Controllo dell’accesso e gestione delle Identità. Valdo Pasqui
The role of Linked Open Data in the digital transformation of PAGiorgia Lodi
The presentation discusses the role of open data and linked data in the digital transformation of the PA providing a summary of more than 10 years of (linked) open data in Italy
The importance of metadata for datasets: The DCAT-AP European standardGiorgia Lodi
The presentation was delivered for a course at the University of Bologna. It presents DCAT-AP and the Italian extension DCAT-AP_IT. It includes a discussion on the new version of DCAT and DCAT-AP
Cultural-ON: l'ontologia dei luoghi della cultura e degli eventi culturaliGiorgia Lodi
La presentazione è stata fatta per un webinar organizzato in occasione della settimana dell'amministrazione aperta nel 2017 in collaborazione con Chiara Veninata del Ministero dei Beni e delle Attività Culturali e del Turismo. La presentazione si concentra sulla specifica ontologia Cultural-ON nella sua prima versione.
Dati aperti di qualità e interoperabilità: metadati e ontologie condiviseGiorgia Lodi
La presentazione è stata fatta in occasioni di corsi di formazione presso ComPA FVG. La presentazione tocca svariati temi sui dati aperti, sulla metadatazione e sulle ontologie.
Open Data e Amministrazione TrasparenteGiorgia Lodi
La presentazione è relativa all'invito a intervenire allo Human Smart City Festival. La presentazione si concentra sui temi generali di dati aperti e sugli attuali limiti e barriere
Core Public Event Vocabulary - italian Application profileGiorgia Lodi
This presentation was delivered during a webinar on the re-use of Core Public Event Vocabulary (CPEV) within Member Statea. It presents the Italian Application profile of the Core Public Event developed in the context of the Italian network of ontologies and controlled vocabularies OntoPiA
Core Public Event Vocabulary - italian Application profile
OntoPiA la rete di ontologie e vocabolari controllati per la pubblica amministrazione
1. OntoPiA – la rete di ontologie e
vocabolari controllati per la pubblica
amministrazione
Giorgia Lodi
2. 2
Cos’è OntoPiA e a cosa serve
• Definisce un linguaggio comune per l’interscambio di dati
(interoperabilità semantica)
• Definisce un modello formale, elaborabile da dispositivi digitali e
leggibile da umani (i.e., superamento della logica delle specifiche
scritte in soli file PDF!)
• Apre la strada alla creazione di dati nativamente collegati, i.e.,
fornisce gli schemi dati per creare, interrogare il “grafo della
conoscenza” (knowledge graph) della PA italiana
3. • ONTOLOGIA: una specifica formale ed
esplicita di rappresentazione
(concettualizzazione) condivisa di un
dominio di conoscenza, definita sulla
base di requisiti specifici
• VOCABOLARIO CONTROLLATO: una serie
di termini e codici standard predefiniti e
autorizzati, preselezionati al fine di
indicizzare e recuperare informazioni
.
3
3
OntoPiA- rete di ontologie e vocabolari controllati
4. 4
FACILITARE LO SVILUPPO
DI NUOVI SISTEMI
INFORMATIVI
AGEVOLARE LO SCAMBIO DI
DATI
ABILITARE L’INTEGRAZIONE
TRA DATI PROVENIENTI DA
SORGENTI DIVERSE
STANDARDIZZAZIONE DEI
DATI (APERTI)
OntoPiA – perché?
5. 5
OntoPiA e i principi del modello FAIR
• Findable: si usano URI permanenti per identificare concetti e relazioni
nella rete di ontologie e termini nei vocabolari controllati
• Accessible: si utilizzano protocolli standard aperti per l’accesso sul
Web (i.e. HTTP(S)) and per l’interrogazione dei dati (i.e. SPARQL)
• Interoperable: si utilizzano protocolli standard aperti per modellare i
dati i.e. RDF e OWL
• Reusable: tutte le ontologie e i vocabolari controllati sono pubblici,
rilasciati secondo una licenza aperta (CC-BY 4.0) e sono collegati ad
altre ontologie standard (de facto) disponibili nel Web dei Dati
6. Più serializzazioni disponibili
RDF/XML, RDF/turtle, JSON-LD
URI in inglese e persistenti – uso di w3id.org
https://w3id.org/italia/onto/… , https://w3id.org/italia/controlled-vocabulary/…
https://w3id.org/italia/data/….
Riuso indiretto di ontologie esistenti
Multilinguismo (etichette e descrizioni in ITA e ENG)
Navigazione html delle ontologie e dei vocabolari e interrogazione via
SPARQL
http://ontopia.daf.teamdigitale.it/sparql
o
Agile eXtreme Design, Ontology Design Pattern
F
A
I
R
OntoPiA - Principi
7. .
7
7
OntoPiA – Approccio tecnico in a nutshell
Vocabolari
controllati
Ontologie Profilo
Applicativo
Italiano
(AP_IT)
Classe Proprietà
Restrizione
Concetto
Ontologie e vocabolari controllati esterni del Web Semantico
Allineamenti esterni (aligns)
Componente
Ontologia
coinvoltaIn
associataA
importa
closeMatch, exactMatch,
relatedMatch, sameAs
importa
subClassOf, subPropertyOf, equivalent*
12. .
12
12
L’attuale OntoPiA in numeri
25 ONTOLOGIE PUBBLICATE 1 IN FASE DI SVILUPPO
2 ONTOLOGIE PER METADATI
264 CLASSES
22 VOCABOLARI CONTROLLATI
1 MAPPING TRA DUE VOCABOLARI CONTROLLATI
~10800 AXIOMS
13. 13
OntoPiA-UI
Navigazione
HTML via LODE
(open source)
Navigazione HTML
via LodView
(open source) Interrogazione
machine-to-machine
via SPARQL endpoint
Visualizzazione
grafica (WebOWL)
https://github.com/teamdigitale/OntoPiA-UI
14. • COLLABORAZIONE CON CENTRI DI RICERCA
STLab – Semantic Technologies Laboratory del CNR, Sapienza
Università di Roma
• COLLABORAZIONE CON PUBBLICHE AMMINISTRAZIONI
e.g.,ISTAT, MIBAC, Regione Piemonte, ANAC, Comuni di
Palermo e Udine, Provincia Autonoma di Trento
• COINVOLGIMENTO DEGLI UTENTI FINALI
Disponibile su Github: chiunque può SEMPRE commentare e/o
proporre cambiamenti e correzioni
https://github.com/italia/daf-ontologie-vocabolari-controllati
.
14
14
OntoPiA- coinvolgimento PA e utenti
15. OntoNetHub
• Un’applicazione web implementata per la gestione della rete di
ontologie
• Consente operazione di caricamento, cancellazione e
indicizzazione degli elementi delle ontologie della rete
• Progettata come estensione di Apache Stanbol e rilasciata
come container Docker
https://github.com/teamdigitale/ontonethub
16. OntoPiA – chi la usa
• DAF - Catalogo ontologie e
vocabolari controllati
• DAF – semantic tagging
• DAF - Harvesting metadati
• Alcuni interessanti riusi da PA e
Aziende
16
17. Esempi – ontologia delle persone e
dei ruoli
Giorgia Lodi
Open Data Sicilia – raduno annuale
18. Un estratto grafico dell’ontologia delle persone
CPV-AP_IT (Core
Person Vocabulary –
Italian Application
Profile)
19. Gestire i ruoli che variano nel tempo
RO-AP_IT (ROle – Italian Application Profile)
20. Linked (Open) Data – a che punto
siamo
Giorgia Lodi
Open Data Sicilia – raduno annuale
21. Primi risultati preliminari – Linked Data
• Linked Open Data dell’archivio storico dei comuni utilizzando 3 dataset
• Tabella dei Comuni ANPR (storico) – file principale
• Dataset degli ultimi Comuni d’Italia di ISTAT
• Dataset dell’archivio storico dei Comuni
Il dataset finale è modellato secondo l’ontologia CLV-AP_IT (Core Location
Vocabulary – Italian Application Profile)
• Linked Open Data preliminari dell’Indice della Pubblica Amministrazione
• Il Dataset è collegato al precedente
Il dataset è modellato secondo l’ontologia COV-AP_IT (Core Organization
Vocabulary – Italian Application Profile)
Non ancora pubblicati nello SPARQL endpoint - nelle prossime settimane
I dataset sono stati prodotti utilizzando lo standard R2RML
22. 22
22
Attuali e futuri lavori
SVILUPPO ONTOLOGIE
Stabilizzazione di alcune ontologie
Definizione di nuove sulla base degli ecosistemi del piano triennale
Definizione della documentazione online
PRODUZIONE E PUBBLICAZIONE DEI LINKED (OPEN) DATA
Produzione di altri Linked Open Data per estendere l’attuale knowledge
graph
SVILUPPO CATALOGO ONTOLOGIE
Abilitare la ricerca generale e per singoli elementi delle ontologie, in
quest’ultimo caso via indicizzatore già disponibile OntonetHub