Diaporama pour une communication donnée dans le cadre de la journée d'études ADBS-EDB, "Quel Web demain ?", 7 avril 2009, http://www.adbs.fr/quel-web-demain--57415.htm
Le "Lac de données" de l'Ina, un projet pour placer la donnée au cœur de l'or...Gautier Poupeau
Support de l'intervention effectuée au cours de la séance dédiée aux lacs de données du séminaire "Nouveaux paradigmes de l'Archive" organisée par le DICEN-CNAM et les Archives nationales
Big data, Intelligence artificielle, quelles conséquences pour les profession...Gautier Poupeau
Support du Webinaire organisé le 21 février par Ina Expert sur l'évolution du positionnement des professionnels de l'information dans les organisations face aux changements en cours que sont la montée en puissance des données au détriment du document, le big data et l'intelligence artificielle
Un modèle de données unique pour les collections de l'Ina, pourquoi ? Comment ?Gautier Poupeau
Support de l'intervention effectuée lors des lundis du numérique de l'INHA le 11 février 2019 sur le projet à l'institut national de l'audiovisuel d'une stratégie orientée données pour la refonte de notre système d'information basée sur la mise au point d'une infrastructure centralisée de stockage et de traitement des données et un modèle de données unique pour mettre en cohérence toutes les données de l'Ina
Visite guidée au pays de la donnée - Du modèle conceptuel au modèle physiqueGautier Poupeau
Ce diaporama est le 3ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette partie s'attache à présenter comment on passe de la modélisation des données jusqu'à leur stockage. Elle dresse un panorama des différentes solutions de stockage de données, en présente les particularités, les forces et les faiblesses.
Visite guidée au pays de la donnée - Introduction et tour d'horizonGautier Poupeau
Ce diaporama est le 1er d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette 1ère partie revient sur les raisons qui font de la donnée un actif indépendant de notre SI et propose une représentation de la gestion des données
Visite guidée au pays de la donnée - Traitement automatique des donnéesGautier Poupeau
Ce diaporama est le 2ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette 2ème partie présente le traitement automatique des données : intelligence artificielle, fouille de textes et de données, Traitement automarique de la langue ou des images. Après avoir défini ces différents domaines, cette présentation s'attache à faire le tour des différents outils disponibles pour analyser les contenus audiovisuels.
Introduction au web des données (Linked Data)BorderCloud
L'Open Data, le Big Data, le Web des données, le Web sémantique, les ontologies, le NoSql et le SPARQL sont autant de notions qu'il faut comprendre pour ne pas rater la prochaine rupture technologique du Web.
Cette présentation est l'introduction de la formation sur le Web sémantique que donne la société BorderCloud pour prendre un peu de recule sur les buzzwords du moment et savoir si vous avez besoin de faire du Big Data ou bien du Linked Data.
Le "Lac de données" de l'Ina, un projet pour placer la donnée au cœur de l'or...Gautier Poupeau
Support de l'intervention effectuée au cours de la séance dédiée aux lacs de données du séminaire "Nouveaux paradigmes de l'Archive" organisée par le DICEN-CNAM et les Archives nationales
Big data, Intelligence artificielle, quelles conséquences pour les profession...Gautier Poupeau
Support du Webinaire organisé le 21 février par Ina Expert sur l'évolution du positionnement des professionnels de l'information dans les organisations face aux changements en cours que sont la montée en puissance des données au détriment du document, le big data et l'intelligence artificielle
Un modèle de données unique pour les collections de l'Ina, pourquoi ? Comment ?Gautier Poupeau
Support de l'intervention effectuée lors des lundis du numérique de l'INHA le 11 février 2019 sur le projet à l'institut national de l'audiovisuel d'une stratégie orientée données pour la refonte de notre système d'information basée sur la mise au point d'une infrastructure centralisée de stockage et de traitement des données et un modèle de données unique pour mettre en cohérence toutes les données de l'Ina
Visite guidée au pays de la donnée - Du modèle conceptuel au modèle physiqueGautier Poupeau
Ce diaporama est le 3ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette partie s'attache à présenter comment on passe de la modélisation des données jusqu'à leur stockage. Elle dresse un panorama des différentes solutions de stockage de données, en présente les particularités, les forces et les faiblesses.
Visite guidée au pays de la donnée - Introduction et tour d'horizonGautier Poupeau
Ce diaporama est le 1er d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette 1ère partie revient sur les raisons qui font de la donnée un actif indépendant de notre SI et propose une représentation de la gestion des données
Visite guidée au pays de la donnée - Traitement automatique des donnéesGautier Poupeau
Ce diaporama est le 2ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette 2ème partie présente le traitement automatique des données : intelligence artificielle, fouille de textes et de données, Traitement automarique de la langue ou des images. Après avoir défini ces différents domaines, cette présentation s'attache à faire le tour des différents outils disponibles pour analyser les contenus audiovisuels.
Introduction au web des données (Linked Data)BorderCloud
L'Open Data, le Big Data, le Web des données, le Web sémantique, les ontologies, le NoSql et le SPARQL sont autant de notions qu'il faut comprendre pour ne pas rater la prochaine rupture technologique du Web.
Cette présentation est l'introduction de la formation sur le Web sémantique que donne la société BorderCloud pour prendre un peu de recule sur les buzzwords du moment et savoir si vous avez besoin de faire du Big Data ou bien du Linked Data.
Les technologies du Web appliquées aux données structurées (2ème partie : Rel...Gautier Poupeau
Diaporama de la présentation effectuée au séminaire INRIA IST "Le document à l'heure du Web de données" (Carnac 1er-5 octobre 2012) en compagnie d'Emmanuelle Bermès (aka figoblog)
Linked Enterprise Data ou comment disposer d'une vue consolidée des donnéesAntidot
Diaporama de la présentation faite le 12 juin 2012 par Gautier Poupeau à l'occasion de la keynote "Web sémantique et Big Data" organisée dans le cadre de l'événement Time2Marketing
Les technologies du Web appliquées aux données structurées (1ère partie : Enc...Gautier Poupeau
Diaporama de la présentation effectuée au séminaire INRIA IST "Le document à l'heure du Web de données" (Carnac 1er-5 octobre 2012) en compagnie d'Emmanuelle Bermès (aka figoblog)
Documation 2011 : de la recherche fédérée à l'accès unifiéAntidot
Toute organisation subit les limites de son système d’information : entrepôts de données cloisonnés, données hétérogènes, documents non structurés, thésaurus incomplets, taxonomies incohérentes…
Les utilisateurs en souffrent et attendent un véritable « accès unifié à l’information » : trouver l’information par les concepts plutôt que la chercher par les mots, naviguer aisément dans l’information, mieux l’exploiter en collaborant. L’entreprise doit évoluer vers un « espace informationnel enrichi », servant différents usages selon le profil ou la mission de chaque collaborateur.
La vision innovante d'Antidot permet d’aller bien au-delà de ce que permettent les approchent traditionnelles comme la « recherche fédérée » ou encore les « search based applications » car Antidot Information Factory et Antidot Finder Suite permettent de modéliser l’information, de capter, normaliser, décrire et agréger des données puis d’en inférer des informations nouvelles, facilement accessibles.
Intégrant nativement les technologies du web sémantique, Antidot apporte les solutions les plus en pointe dans le domaine et démontre à travers une réalisation emblématique - le projet ISIDORE du CNRS TGE Adonis - comment remodeler et diffuser une information à forte valeur ajoutée.
Web sémantique, Web de données, Web 3.0, Linked Data... Quelques repères pour...Antidot
Diaporama de la présentation faite à l'occasion du Co-lab Semantique organisé par le consortium Scribo. L'enjeu était de présenter en 45-60min les enjeux du Web sémantique.
Atelier JDEV2017 : initiation à SPARQL avec Wikidata
Cet atelier a pour objectif de vous montrer comment dans l’avenir un étudiant et un chercheur (et demain les machines) vont naviguer dans le Linked Data (Web des données) à l’aide du langage SPARQL. Nous utiliserons un outil d'auto-complétion qui facilitera la création de votre première requête. Nous utiliserons le logiciel http://LinkedWiki.com afin d’écrire et partager les requêtes des participants de l’atelier ou bien https://io.datascience-paris-saclay.fr/map.php si le participant est membre de cette université.
Web sémantique et Web de données, et si on passait à la pratique ?Antidot
Le web sémantique, théorisé il y a déjà longtemps par Tim Berners-Lee, a tardé à prendre son envol. Mais aujourd'hui la vague est là et les premiers à la surfer sont les grands acteurs du web, comme Google qui bâtit son Knowledge Graph. Les standards sont aujourd'hui matures, et des organisations de toutes tailles les mettent en oeuvre dans des projets concrets, avec un vrai retour sur investissement. Cependant faire une application à l’aide des technologies du Web Sémantique peut s’avérer être une tâche fastidieuse pour ceux qui souhaitent découvrir ce domaine. De nombreuses questions restent souvent en suspens. Quel est le rôle des ontologies ? Pourquoi utiliser RDF et SPARQL ? Qu’est ce qu’un triplestore et comment l’exploiter ? Comment tirer parti du Web de données pour enrichir ses données métier à l'aide de ces outils ? Autant de questions auxquelles nous essaieront de répondre à partir d’un exemple concret : les données de l'institution culturelle Les Champs Libres à Rennes.
Le Web sémantique (plus techniquement appelé « le Web de données ») permet aux machines de comprendre la sémantique, la signification de l'information sur le Web.
Le terme a été inventé par Tim Berners-Lee, coinventeur du Web et directeur du W3C, qui supervise l'élaboration des propositions de standards du Web sémantique.
Slides de l'atelier JDEV2017 : SPARQL, avancé
Vous saurez après cet atelier : lire un document RDF écrit en Turtle, découvrir une ontologie au travers d’un service SPARQL et lire la documentation officielle de SPARQL.
Présentation sur la démarche de l'Open Data (quelles données ? Quels acteurs ?) et sur les technologies gravitant autour du Linked Data (le modèle RDF, RDFS, OWL, les ontologies, les triplestores, etc).
Réalisation d'un mashup de données avec DSS de Dataiku - Première partieGautier Poupeau
Cf la seconde partie https://www.slideshare.net/lespetitescases/ralisation-dun-mashup-de-donnes-avec-dss-de-dataiku-et-visualisation-avec-palladio-deuxime-partie
Tutoriel pour réaliser un mashup à partir de jeux de données libres téléchargés sur data.gouv.fr et Wikidata entre autres avec le logiciel DSS de Dataiku. Après une introduction sur la notion de mashup et des exemples, cette première partie s'intéresse à la préparation de deux jeux de données issues de data.gouv.fr et provenant du Centre national du cinéma.
Ce tutoriel a servi de support de cours au Master 2 "Technologies numériques appliqués à l'histoire" de l'Ecole nationale des chartes lors de l'année universitaire 2016-2017.
Beacon, GRDDL, and Twine... oh my!! Sometimes it is hard to keep track of all the new technology on the web. Which are the ones worth paying attention to? Let's take a look into how the web evolves and where we've came from. (Finally, a field where "evolution" and "intelligent design" can play nice.) We'll dive deep into some of the upcoming trends poised to change the web as we know it.
Web 3.0 refers to a semantic web where information is given understood meaning to enable better organization and search. It involves representing data using Resource Description Framework (RDF) and ontologies, defining relationships between concepts using Web Ontology Language (OWL), and formulating rules using Semantic Web Rule Language (SWRL) to enable reasoning about data. This moves the web towards being a web of data that can be processed by machines to better satisfy user needs.
Les technologies du Web appliquées aux données structurées (2ème partie : Rel...Gautier Poupeau
Diaporama de la présentation effectuée au séminaire INRIA IST "Le document à l'heure du Web de données" (Carnac 1er-5 octobre 2012) en compagnie d'Emmanuelle Bermès (aka figoblog)
Linked Enterprise Data ou comment disposer d'une vue consolidée des donnéesAntidot
Diaporama de la présentation faite le 12 juin 2012 par Gautier Poupeau à l'occasion de la keynote "Web sémantique et Big Data" organisée dans le cadre de l'événement Time2Marketing
Les technologies du Web appliquées aux données structurées (1ère partie : Enc...Gautier Poupeau
Diaporama de la présentation effectuée au séminaire INRIA IST "Le document à l'heure du Web de données" (Carnac 1er-5 octobre 2012) en compagnie d'Emmanuelle Bermès (aka figoblog)
Documation 2011 : de la recherche fédérée à l'accès unifiéAntidot
Toute organisation subit les limites de son système d’information : entrepôts de données cloisonnés, données hétérogènes, documents non structurés, thésaurus incomplets, taxonomies incohérentes…
Les utilisateurs en souffrent et attendent un véritable « accès unifié à l’information » : trouver l’information par les concepts plutôt que la chercher par les mots, naviguer aisément dans l’information, mieux l’exploiter en collaborant. L’entreprise doit évoluer vers un « espace informationnel enrichi », servant différents usages selon le profil ou la mission de chaque collaborateur.
La vision innovante d'Antidot permet d’aller bien au-delà de ce que permettent les approchent traditionnelles comme la « recherche fédérée » ou encore les « search based applications » car Antidot Information Factory et Antidot Finder Suite permettent de modéliser l’information, de capter, normaliser, décrire et agréger des données puis d’en inférer des informations nouvelles, facilement accessibles.
Intégrant nativement les technologies du web sémantique, Antidot apporte les solutions les plus en pointe dans le domaine et démontre à travers une réalisation emblématique - le projet ISIDORE du CNRS TGE Adonis - comment remodeler et diffuser une information à forte valeur ajoutée.
Web sémantique, Web de données, Web 3.0, Linked Data... Quelques repères pour...Antidot
Diaporama de la présentation faite à l'occasion du Co-lab Semantique organisé par le consortium Scribo. L'enjeu était de présenter en 45-60min les enjeux du Web sémantique.
Atelier JDEV2017 : initiation à SPARQL avec Wikidata
Cet atelier a pour objectif de vous montrer comment dans l’avenir un étudiant et un chercheur (et demain les machines) vont naviguer dans le Linked Data (Web des données) à l’aide du langage SPARQL. Nous utiliserons un outil d'auto-complétion qui facilitera la création de votre première requête. Nous utiliserons le logiciel http://LinkedWiki.com afin d’écrire et partager les requêtes des participants de l’atelier ou bien https://io.datascience-paris-saclay.fr/map.php si le participant est membre de cette université.
Web sémantique et Web de données, et si on passait à la pratique ?Antidot
Le web sémantique, théorisé il y a déjà longtemps par Tim Berners-Lee, a tardé à prendre son envol. Mais aujourd'hui la vague est là et les premiers à la surfer sont les grands acteurs du web, comme Google qui bâtit son Knowledge Graph. Les standards sont aujourd'hui matures, et des organisations de toutes tailles les mettent en oeuvre dans des projets concrets, avec un vrai retour sur investissement. Cependant faire une application à l’aide des technologies du Web Sémantique peut s’avérer être une tâche fastidieuse pour ceux qui souhaitent découvrir ce domaine. De nombreuses questions restent souvent en suspens. Quel est le rôle des ontologies ? Pourquoi utiliser RDF et SPARQL ? Qu’est ce qu’un triplestore et comment l’exploiter ? Comment tirer parti du Web de données pour enrichir ses données métier à l'aide de ces outils ? Autant de questions auxquelles nous essaieront de répondre à partir d’un exemple concret : les données de l'institution culturelle Les Champs Libres à Rennes.
Le Web sémantique (plus techniquement appelé « le Web de données ») permet aux machines de comprendre la sémantique, la signification de l'information sur le Web.
Le terme a été inventé par Tim Berners-Lee, coinventeur du Web et directeur du W3C, qui supervise l'élaboration des propositions de standards du Web sémantique.
Slides de l'atelier JDEV2017 : SPARQL, avancé
Vous saurez après cet atelier : lire un document RDF écrit en Turtle, découvrir une ontologie au travers d’un service SPARQL et lire la documentation officielle de SPARQL.
Présentation sur la démarche de l'Open Data (quelles données ? Quels acteurs ?) et sur les technologies gravitant autour du Linked Data (le modèle RDF, RDFS, OWL, les ontologies, les triplestores, etc).
Réalisation d'un mashup de données avec DSS de Dataiku - Première partieGautier Poupeau
Cf la seconde partie https://www.slideshare.net/lespetitescases/ralisation-dun-mashup-de-donnes-avec-dss-de-dataiku-et-visualisation-avec-palladio-deuxime-partie
Tutoriel pour réaliser un mashup à partir de jeux de données libres téléchargés sur data.gouv.fr et Wikidata entre autres avec le logiciel DSS de Dataiku. Après une introduction sur la notion de mashup et des exemples, cette première partie s'intéresse à la préparation de deux jeux de données issues de data.gouv.fr et provenant du Centre national du cinéma.
Ce tutoriel a servi de support de cours au Master 2 "Technologies numériques appliqués à l'histoire" de l'Ecole nationale des chartes lors de l'année universitaire 2016-2017.
Beacon, GRDDL, and Twine... oh my!! Sometimes it is hard to keep track of all the new technology on the web. Which are the ones worth paying attention to? Let's take a look into how the web evolves and where we've came from. (Finally, a field where "evolution" and "intelligent design" can play nice.) We'll dive deep into some of the upcoming trends poised to change the web as we know it.
Web 3.0 refers to a semantic web where information is given understood meaning to enable better organization and search. It involves representing data using Resource Description Framework (RDF) and ontologies, defining relationships between concepts using Web Ontology Language (OWL), and formulating rules using Semantic Web Rule Language (SWRL) to enable reasoning about data. This moves the web towards being a web of data that can be processed by machines to better satisfy user needs.
Présentation faite au Centre des Jeunes Dirigeants d'entreprise. Retour d'expérience sur les techniques de veille utilisant les réseaux sociaux et le web de façon plus générale.
Count-Min Tree Sketch : Approximate counting for NLP tasksGuillaume Pitel
Count-Min Tree sktech is a variant of the Count-Min Sketch, tailored for Zipfian (or power law) data distribution. With memory footprint improvement of 4 to 8 times against other variants, and on-par performance with native strict counting, the Count-Min Tree sketch can be used in many time-critical situations. It is developped by eXenSa (www.exensa.com)
Linked Open Data-enabled Strategies for Top-N RecommendationsCataldo Musto
Linked Open Data-enabled Strategies for Top-N Recommendations - Cataldo Musto, Pierpaolo Basile, Pasquale Lops, Marco De Gemmis and Giovanni Semeraro - 1st Workshop on New Trends in Content-based Recommender Systems, co-located with ACM Recommender Systems 2014
What is #LODLAM?! Understanding linked open data in libraries, archives [and ...Alison Hitchens
This document provides an overview of linked open data (LOD) and the Resource Description Framework (RDF) and their applications in libraries, archives, and museums (LODLAM). It begins by defining linked data and how it extends standard web technologies to share structured data between computers. The document then discusses using structured, machine-readable data to describe resources like people, and how to structure this data using RDF. It provides examples of libraries and archives sharing controlled vocabularies, unique resources and holdings data as linked open data. The document concludes by reviewing current LODLAM projects and the potential for libraries and archives to both contribute and consume linked open data.
Intro to Linked Open Data in Libraries Archives & Museums.Jon Voss
This document discusses a presentation on Linked Open Data in libraries, archives, and museums. The presentation introduces Linked Open Data and how it is being used in cultural heritage institutions. It discusses representing data as graphs using triples and RDF, important vocabularies and ontologies, and following Tim Berners-Lee's principles of Linked Data. The presentation also covers legal and licensing considerations for publishing open cultural data on the web.
Towards an architecture and adoption process for Linked Data technologies in ...Jose Emilio Labra Gayo
The document proposes an architecture and adoption process for implementing Linked Data technologies at the Library of Congress of Chile. It describes applying the approach to publish over 300,000 norms and their relationships as Linked Data. Key aspects included developing domain ontologies, modeling the data as RDF graphs, implementing SPARQL and update services, and creating documentation and visualization tools. The process provides a methodology for public institutions to publish their data as Linked Open Data.
Réalisation d'un mashup de données avec DSS de Dataiku et visualisation avec ...Gautier Poupeau
cf. la première partie : https://www.slideshare.net/lespetitescases/ralisation-dun-mashup-de-donnes-avec-dss-de-dataiku-premire-partie
Tutoriel pour réaliser un mashup à partir de jeux de données libres téléchargés sur data.gouv.fr et Wikidata entre autres avec le logiciel DSS de Dataiku. Cette deuxième partie permet d'aborder le requêtage de Wikidata avec une requête SPARQL puis montre comment relier les jeux de données de data.gouv.fr et les données issues de Wikidata. Enfin, il aborde la visualisation des données via l'application en ligne Palladio.
Ce tutoriel a servi de support de cours au Master 2 "Technologies numériques appliqués à l'histoire" de l'Ecole nationale des chartes lors de l'année universitaire 2016-2017.
Il y a aujourd’hui de plus en plus d'applications, de périphériques et plus que jamais de données à gérer au sein du datacenter. Ces évolutions amènent les entreprise à devoir réfléchir sur la transformation de leur Datacenter : privé, public ou hybride. Cette session vous permettra de découvrir l’approche Modern Datacenter proposée par Microsoft et sa mise en œuvre au travers de la mise en place d’un Software Defined Datacenter
Speakers : Fabrice Meillon (Microsoft), Emmanuel Sache (Microsoft)
The British Library was one of the first national libraries to create and offer linked data in 2011 as part of its wider open data strategy. Since that point the organisation has gained considerable experience of the issues involved in the development and maintenance of a sustained linked data service.
This presentation describes
- Why libraries are interested in offering linked data?
- What are some of the basic concepts involved in linked data?
- How can linked data be created from library MARC data?
Du Big Data vers le SMART Data : Scénario d'un processusCHAKER ALLAOUI
Du Big Data vers le SMAR Data : Scénario d'un processus
Scénario d'une implémentation d'un processus de transformations des données Big Data vers des données exploitables et représentatives via des traitements des streaming, systèmes distibués, messages, stockage dans un environnement NoSQL, gestion avec un éco-système Big Data et présentation graphique et quantitative des données avec les technologies:
Apache Storm, Apache Zookeeper, Apache Kafka, Apache Cassandra, Apache Spark et Data-Driven Document.
Nous lisons régulièrement que le Web révolutionne notre monde et provoque des évolutions dans toutes les dimensions de notre société. Mais le Web lui-même, ses usages et la compréhension que nous en avons n’ont pas cessé d’évoluer depuis la proposition à l’origine de sa création en 1989. C’est un espace en perpétuelle recréation qui nous demande sans cesse de nouvelles explorations et reconsidérations. Ce sont certains de ces changements passés, actuels, et à venir du Web que nous allons regarder ensemble en insistant sur la complexité de cet artefact qui en fait un objet de recherches pluridisciplinaires.
On Youtube: https://youtu.be/jNjHdqS-1Ko
Web 3_0 - l'évolution vers le web sémantique: l'internet intelligentJohann Lovato
Pour les ingénieurs, informaticiens avancés ou simplement geeks en informatique, voici un mémoire de MBA pour vous apprendre que je ne fais pas que du PPC dans la vie ;) Le web sémantique est pour moi l'avenir!
Une petite présentation de certains services "Web 2.0" pour les professionnels de l'info-doc. ADBS Champagne-Ardenne 2006, Montpelier 2007. Format Open Office (odp).
Support 4 (web de données) des journées de formation sur l'évolution des catalogues organisées par MédiaLille et le groupe technique sur l'adoption de RDA en France.
Le Web comme plateforme TIC pour l'entreprisemastertic
Support de cours d'andré Blavier pour le module "Le Web comme plateforme TIC pour l'entreprise" du cours de veille technologique en TIC en 2ème master IG HEC-ULg 2008/2009
Aligner vos données avec Wikidata grâce à l'outil Open RefineGautier Poupeau
Tutoriel sous la forme d'un pas à pas pour aligner des données avec Wikidata grâce à l'outil Open Refine. Dans ce tutoriel, les données alignées proviennent de la plateforme HAL récupérées via le Sparql endpoint.
Tutoriel sous forme d'exercices pour découvrir le sparql endpoint mis à disposition par la plateforme HAL, archive ouverte d'article scientifiques de toutes disciplines des institutions de recherches françaises. Attention ! Ce tutoriel a pour pré-requis la connaissance du langage de requêtes SPARQL.
Diaporama de la présentation faite lors du Talend Connect 2016 sur la stratégie orientée données déployée à l'Institut national de l'audiovisuel (Ina). Pour en savoir plus, vous pouvez lire ce billet de blog : http://www.lespetitescases.net/comment-mettre-la-donnee-au-coeur-du-si
How to use index to highlight social networks
in historical digital corpora ?
Présentation à Digital Humanities, 6 juillet 2006 (Paris).
Attention, c\'est un peu vieilli...
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
De l'IA comme plagiat à la rédaction d'une « charte IA » à l'université
Les professionnels de l'information face aux défis du Web de données
1. Les professionnels de l’information face aux défis du Web de données Gautier Poupeau, Atos Origin « Quel Web demain ? », journée d’études ADBS-EDB, 7 avril 2009
2. Sommaire Professionnels de l’information, prenez place ! En route vers le Web de données Retour vers le futur du Web
3. Le Web a 20 ans Source : http://info.cern.ch/Proposal.html
4. Retour sur le Web Un dispositif technologique pour mettre à disposition, lier et partager des documents sur un réseau de machines connectées. Les quatre composantes du Web Un protocole Un langage Un principe Un mécanisme d’identification HTTP HTML L’hypertexte URL/URI
5. Retour sur 20 ans de recommandations Web architecture HTTP URI RDF XML Semantic Web GRDDL RDFa RIF SKOS RDF POWDER OWL RDFS SPARQL Web of services Choreography WSDL XML Signature SOAP SAWSDL SPARQL Protocol XML Core technology XML XML namespaces XML schema XSLT XPath Xquery XML Pipeline XPointer Xlink XInclude XForms Web design and applications HTML CSS DOM PNG SVG SMIL Ruby P3P MathML WAI XMLHttpRequest Widgets Web of devices InkML Device Independence Authoring VoiceXML CSS Print SVG Tiny CSS Mobile Mobile Web applications
6. Retour sur le destin du Web Le « Hype cycle » du Gartner Le sommet des espérances exagérées Le ravin de la désillusion La pente des lumières Le plateau de la production stable Le déclenchement technologique
7. Retour sur le destin du Web Le « Hype cycle » du Gartner appliqué au Web Invention du Web par TimBL Mosaïc 1 er navigateur web Yahoo ! Internet explorer Apparition du e-commerce Ère des start-ups et de la nouvelle économie Eclatement de la bulle Apparition des blogs Démarrage de Wikipedia Montée en puissance de Google Sortie de Firefox 1.0 Guerre des navigateurs Apparition du terme Web 2.0 Google Apps Second Life Facebook Twitter Aujourd’hui
8. Retour sur les Web(s) Un Web de documents Un Web social Un Web d’applications
9. Un nouveau défi s’annonce Et si on ajoutait une nouvelle pierre à l’édifice du Web ? Les données structurées Source : http://www.flickr.com/photos/lizadaly/2949894331/
10. Sommaire Professionnels de l’information, prenez place ! En route vers le Web de données Retour vers le futur du Web
11. Retour en 1994 : 1 ère conférence WWW Présentation de Tim Berners-Lee Passer d’un Web de documents « sans relief » peu compréhensible par les machines à…. un Web de choses relié à la réalité et compréhensible par les machines Source : http://www.w3.org/Talks/WWW94Tim/
12. Retour en 1998-2000 : Semantic Web road map Source :http://www.w3.org/DesignIssues/Semantic.html « The Semantic Web is a web of data, in some ways like a global database » « The Semantic Web is not a separate Web but an extension of the current one, in which information is given well-defined meaning, better enabling computers and people to work in cooperation. » Source : http://www.w3.org/2000/Talks/1206-xml2k-tbl Tim Berners-Lee Le layer cake ou Web semantic stack Formalisation graphique des différentes briques technologiques composant le Web sémantique d’après la vision de Tim Berners-Lee en 2000
13. 2009 : Linked Data Cloud « Raw data now ! », Tim Berners-Lee, conférence TED 2009, http://www.ted.com/index.php/talks/tim_berners_lee_on_the_next_web.html Source : http://www4.wiwiss.fu-berlin.de/bizer/pub/lod-datasets_2009-03-27_colored.png
14. Présentation des technologies du Web sémantique RDF Web sémantique RDF/XML RDFa SPARQL Thésaurus Ontologie Logique de description OWL RDFS Taxinomie Vocabulaires contrôlés Intelligence artificielle Métadonnées URI Triples Graphes NTriples Web Dublin Core SKOS TAL Bases de données
15. (<http://www.w3.org/People/Berners-Lee/card#i>, <http://www.w3.org/1999/02/22-rdf-syntax-ns#type>, <http://xmlns.com/foaf/0.1/Person>) (<http://www.sciam.com/article.cfm?id=the-semantic-web>, <http://purl.org/dc/elements/1.1/creator>, <http://www.w3.org/People/Berners-Lee/card#i>) (<http://www.sciam.com/article.cfm?id=the-semantic-web>, <http://www.w3.org/1999/02/22-rdf-syntax-ns#type>, <http://purl.org/dc/dcmitype/Text>) Principes du modèle RDF Structure d’un triplet RDF = Structure d’une phrase simple Sujet Verbe Complément = (Sujet, Prédicat, Objet) Tim Berners-Lee est une personne l’article Semantic Web de 2001 a pour créateur Tim Berners-Lee L’article « Semantic Web » de 2001 est un texte
16. ( <http://www.w3.org/People/Berners-Lee/card#i> , <http://www.w3.org/1999/02/22-rdf-syntax-ns#type> , <http://xmlns.com/foaf/0.1/Person> ) ( <http://www.sciam.com/article.cfm?id=the-semantic-web> , <http://purl.org/dc/elements/1.1/creator> , <http://www.w3.org/People/Berners-Lee/card#i> ) ( <http://www.sciam.com/article.cfm?id=the-semantic-web> , <http://www.w3.org/1999/02/22-rdf-syntax-ns#type> , <http://purl.org/dc/dcmitype/Text> ) Principes du modèle RDF Structure d’un triplet RDF = Structure d’une phrase simple Sujet Verbe Complément = ( Sujet , Prédicat , Objet ) Tim Berners-Lee est une personne l’article Semantic Web de 2001 a pour créateur Tim Berners-Lee L’article « Semantic Web » de 2001 est un texte
17. Résumons-nous (1) Presque aucun… Rapport avec la « sémantique » Web of data, Web de données, linked data, Web 3.0 Synonyme Article de Tim Berners-Lee, Ora Lassila et James Hendler dans la revue Scientific American en 2001 Acte de naissance officielle Tim Berners-Lee Gourou du Web sémantique Concept Activité du W3C Ensemble de technologies et de standards Extension du Web Nature du Web sémantique 2 octobre 1997 Premières « working draft » au W3C
18. Résumons-nous (2) Il faut penser/structurer/modéliser l’information au niveau de l’information elle-même Un document XML, eXtensible Markup Language Les données structurées et autres métadonnées RDF, Resource Description Framework Modèliser l’information sous la forme d’un arbre Modèliser l’information sous la forme d’un graphe Un leitmotiv : « Data first ! » 1 2 3 4 5 6 7 8
19. Sommaire Professionnels de l’information, prenez place ! En route vers le Web de données Retour vers le futur du Web
20. Le rôle des professionnels de l’information Un objectif : aider et accompagner les utilisateurs à trouver l’information pertinente Assurer la continuité de l’accès à l’information Repérer l’information Extraire les données Organiser les données Modéliser les données Critiquer l’information Décrire l’information
21. Les défis de la gestion de données en bibliothèques (1) Gérer et lier des données hétérogènes Données de signalement pour les différents supports Données de la numérisation Données des utilisateurs Données de gestion Données nativement numériques
22. Les défis de la gestion de données en bibliothèque (2) Ré-affirmer le rôle des données structurées et des référentiels
23. Placer les données de la bibliothèque dans le Web Les défis de la gestion de données en bibliothèque (3)
24. Prenons de la distance… Partons à la découverte d’un nouveau territoire pour le professionnel de l’information La construction des systèmes d’information Source : http://www.flickr.com/photos/maviayi/144574581/
25. Apports du SemWeb à l’évolution de l’architecture du SI B A Silos applicatifs indépendants et non connectés B A Silos de services Indépendance des trois niveaux (applicatif, service, données)
26. L’organisation du développement d’un SI Les utilisateurs finaux du système d’information Les experts fonctionnels Les architectes techniques, les concepteurs et les développeurs l’infrastructure matérielle et logicielle Situation actuelle expriment leurs besoins rédigent les spécifications fonctionnelles les traduisent pour déployer Question : où se trouve l’information dans ce processus ? Pourtant, il me semblait qu’on parlait de « systèmes d’information » et de « technologies de l’information »
27. L’organisation du développement d’un SI Situation en prenant en compte la dimension informationnelle Un nouvel interlocuteur : l’architecte de données expriment leurs besoins Les utilisateurs Les expert fonctionnels décrivent leurs données Les architectes techniques, les concepteurs et les développeurs prennent en compte les aspects fonctionnels rédigent les spécifications fonctionnelles l’infrastructure matérielle et logicelle modélisent les données Traduisent les spécifications et le modèle de données pour déployer Les architectes de données
28. L’architecture de données Nouvelle compétence pour les professionnels de l’information au sein de l’organisation du système d’information ? Rôle de l’expert fonctionnel : Traduire les besoins des utilisateurs en processus fonctionnels implémentables Rôle de l’architecte technique : Traduire les spécifications fonctionnelles en une solution matérielle et logicielle en prenant en compte toutes les contraintes technologiques Rôle de l’architecte de données : Traduire les données des utilisateurs en un modèle de données cohérent en prenant en compte les processus fonctionnels et les impératifs techniques Les professionnels de l’information ne sont-ils pas les plus aptes à remplir ce rôle ?