Présentation de Paprika : Visualiser et produire différemment de bonnes données d’autorité liées
4e journée professionnelle du groupe Systèmes & Données (BnF, 15 novembre 2019) du programme Transition Bibliographique : N’oubliez pas les données d’autorité
Aline Le Provost - Abes
Le "Lac de données" de l'Ina, un projet pour placer la donnée au cœur de l'or...Gautier Poupeau
Support de l'intervention effectuée au cours de la séance dédiée aux lacs de données du séminaire "Nouveaux paradigmes de l'Archive" organisée par le DICEN-CNAM et les Archives nationales
L'ABES a pour métier la gestion des métadonnées bibliographiques de l'enseignement supérieur français. Soit elle les récupère auprès de fournisseurs (autres catalogues, éditeurs), soit elle coordonne leur production par le réseau des bibliothèques universitaires.
Depuis 2008 et surtout 2010, l'ABES mise sur le web sémantique. Comme d'autres, elle a d'abord décidé de partager et de lier ses métadonnées sur le web de données. Cela concerne tous ses catalogues : le catalogue général Sudoc, le catalogue des archives et des manuscrits Calames, le catalogue theses.fr et sa base-référentiel de personnes, collectivités, concepts... IdRef. Ce travail d'ouverture est toujours en cours, car le principal format natif à traduire en RDF, appelé MARC, est très riche, et même touffu. Pour l'instant, l'exposition en RDF se fait à la volée, à partir d'une base XML qui stocke du MARC en XML. Passer à un triplestore semble tentant, mais on résiste... tout en cherchant une solution pour devenir interrogeable en SPARQL.
A partir de 2013, l'ABES a commencé à utiliser RDF comme pivot pour agréger et traiter des métadonnées fournies par des des tiers sous des formes très variées. Il s'agit donc de commencer à travailler en RDF, et plus seulement de l'utiliser en sortie.
Aujourd'hui, on commence à réfléchir à l'avenir des outils de production de métadonnées du réseau Sudoc. Là encore, faut-il aller vers du RDF natif ? Tout en retraçant ce cheminement qui touche tous les aspects de nos expertises et applications métier, nous tenterons d'expliciter les contraintes et les principes directeurs qui déterminent nos actions et nos interrogations.
Le "Lac de données" de l'Ina, un projet pour placer la donnée au cœur de l'or...Gautier Poupeau
Support de l'intervention effectuée au cours de la séance dédiée aux lacs de données du séminaire "Nouveaux paradigmes de l'Archive" organisée par le DICEN-CNAM et les Archives nationales
L'ABES a pour métier la gestion des métadonnées bibliographiques de l'enseignement supérieur français. Soit elle les récupère auprès de fournisseurs (autres catalogues, éditeurs), soit elle coordonne leur production par le réseau des bibliothèques universitaires.
Depuis 2008 et surtout 2010, l'ABES mise sur le web sémantique. Comme d'autres, elle a d'abord décidé de partager et de lier ses métadonnées sur le web de données. Cela concerne tous ses catalogues : le catalogue général Sudoc, le catalogue des archives et des manuscrits Calames, le catalogue theses.fr et sa base-référentiel de personnes, collectivités, concepts... IdRef. Ce travail d'ouverture est toujours en cours, car le principal format natif à traduire en RDF, appelé MARC, est très riche, et même touffu. Pour l'instant, l'exposition en RDF se fait à la volée, à partir d'une base XML qui stocke du MARC en XML. Passer à un triplestore semble tentant, mais on résiste... tout en cherchant une solution pour devenir interrogeable en SPARQL.
A partir de 2013, l'ABES a commencé à utiliser RDF comme pivot pour agréger et traiter des métadonnées fournies par des des tiers sous des formes très variées. Il s'agit donc de commencer à travailler en RDF, et plus seulement de l'utiliser en sortie.
Aujourd'hui, on commence à réfléchir à l'avenir des outils de production de métadonnées du réseau Sudoc. Là encore, faut-il aller vers du RDF natif ? Tout en retraçant ce cheminement qui touche tous les aspects de nos expertises et applications métier, nous tenterons d'expliciter les contraintes et les principes directeurs qui déterminent nos actions et nos interrogations.
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entre...Antidot
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entreprise
Créez de nouvelles applications qui répondent à des besoins métier, de façon rapide et agile, en réutilisant et valorisant les données déjà existantes dans votre système d’information. Déployez un moteur de recherche d’entreprise vraiment intelligent.
Les systèmes d’information des entreprises se sont construits de façon incrémentale. Chaque nouveau besoin opérationnel a déclenché la mise en œuvre d’une application ad hoc : ERP, CRM, GED, annuaire, messagerie, extranet… Le développement du SI a été pensé en termes d’applications et de processus. Chaque nouvelle application a entrainé la création d’un silo de données si bien que les entreprises sont aujourd’hui confrontées à un nouveau défi : la gestion et la valorisation de ces données par essence hétérogènes et cloisonnées.
Le Linked Enterprise Data repense l’accès à l’information pour atteindre cet objectif. Il crée un espace informationnel unifié qui se nourrit de l’ensemble des données de l’entreprise, structurées ou non, voire de données externes captées sur Internet.
Évolutif et agile par essence, le Linked Enterprise Data permet de créer les données opérationnelles demandées par les métiers sans modification des applications existantes ni perturbation du système d’information. Les bénéfices du Linked Enterprise Data sont nombreux :
- Décloisonner les données en offrant un hub informationnel qui permet à chaque application de s’enrichit des données en provenance de tout le SI.
- Bénéficier d’un cadre technologique ouvert, standardisé, sécurisé, pérenne et performant défini par le W3C (avec les standards XML, RDF, SPARQL, OWL).
- Réduire la complexité par une méthodologie unifiée pour l’échange de données entre applications, que les données soient internes ou externes à l’entreprise.
Le Linked Enterprise Data c’est aussi l’opportunité de créer de nouvelles applications pour répondre à des besoins métier spécifiques, comme des applications mobiles pour les ventes ou le support, de façon rapide et efficace en réutilisant et valorisant les données déjà existantes dans le système d’information.
En apportant à chaque utilisateur les vues métiers dont il a besoin, les solutions Antidot ouvrent une nouvelle voie dans la recherche et l’accès à l’information.
Présentation faite par Pierre Col (Antidot) lors de la conférence T2M Lyon le 13 novembre 2013
Les correspondants autorités : missions, outils, enjeux - 2 octobre 2014 à la...ABES
Les correspondants autorités : missions, outils, enjeux - François Mistral (Abes) dans le cadre de la Journée d'étude dédiée aux correspondants Autorités du 2 octobre 2014 à la BULAC.
Datalift, une plateforme Linked Data, Retour d'expériencesSemWebPro
La production, la consommation et l'échange de données s'intensifient et le besoin d'interopérabilité n'a jamais été aussi prégnant. Mais a-t-on encore le temps de développer des interfaces ou de mettre au point une langue commune entre acteurs ? A-t-on encore besoin de telles interfaces qui ne serviront peut-être qu’une fois ? Ou bien la solution n’est pas plutôt dans une data interopérable ? Le linked data n'est plus un Eldorado incertain, il est devenu une réalité aux dimensions vastes et en expansion mais encore méconnue.
Datalift est une plateforme tout-en-un productrice de linked data qui apporte une solution concrète et aisée. Les données à traiter sont captées dans leurs structures d'origine (fichiers, bases de données, requêtes, données géographiques, etc.). A l'aide de vocabulaires (thesaurus, ontologies), elles sont transformées pour faciliter leurs liaisons. Les fusions obtenues enrichissent mutuellement les sources en même temps qu’elles forment un ensemble de données liées (linked data) exploitables de multiples façons : requêtes, data visualisation, extractions, exports dans de nombreux formats. Ces opérations peuvent être réalisées sans programmation sur un socle open source de façon interactive, elles peuvent aussi être automatisées. La richesse fonctionnelle et technologique de Datalift fait que ses utilisateurs vont des simples utilisateurs aux datascientistes, mais aussi au dialogue machine to machine.
Le développement de la plateforme et son utilisation permettent aujourd'hui de dresser un premier regard rétrospectif que nous nous proposons de présenter en trois temps. Nous commencerons notre exposé par la démonstration d’une interconnexion de jeux de données hétérogènes rendue possible par un alignement d’ontologies. Cette démo visibilisera le caractère « tout-en-un » d’une plateforme qui s’installe en un clic. Nous poursuivrons par un survol de l’architecture de la plateforme. Nous terminerons par un triple retour d’expérience : méthodologique, architectural et usages.
Les archives du département de la Gironde, de la Ville de Bordeaux et de la Métropole de Bordeaux ont mis en place un système d'archivage mutualisé leur permettant de gérer leurs documents tout au long de leur cycle de vie, depuis leur conception initiale jusqu'à leur archivage. Ce système repose sur diverses applications logiciel libre prenant chacune en charge une partie du cycle de vie des documents (Alfresco pour la GED courante, Asalae pour l'archivage, etc.)
Dans le cadre de ce système, lors du passage d'un outil à l'autre, un grand nombre de métadonnées sont perdues et doivent donc être ressaisies. D'où l'idée de mettre en place un référentiel commun qui va constituer un pivot sur lequel s'appuient les autres outils, et qui va conserver et enrichir les métadonnées d'un document tout au long de son cycle de vie, au fil de ses passages d'une application à l'autre. Ces métadonnées sont, par exemple, le rangement dans des
plans de classement, les agents étant intervenus sur le document, les étapes du processus de validation, etc.)
Dans le cadre d'un marché public, Logilab développe le référentiel commun du système d'archivage pour le compte du Conseil Départemental de la Gironde, de la Métropole de Bordeaux et de la Ville de Bordeaux.
La présentation présente l'outil logiciel libre qui a vocation à être partagé avec d'autres institutions rencontrant une problématique similaire, mais également de revenir sur le projet lui-meme qui implique de nombreux acteurs et a été géré avec une méthode agile et divers outils innovants (MVP, UX Design, etc.)
Voir http://saem.e-bordeaux.org/projet-module-r%C3%A9f%C3%A9rentiel pour plus de détails.
Jabes 2011 - Session plénière 17 mai "OCLC - orientations stratégiques", Eric Van Lubeek, directeur général OCLC Europe Moyen-Orient et Afrique, dans le cadre des Journées Abes 2011
C# est un langage dérivé du C++, il apporte un typage sûr, ainsi que les possibilités d'encapsulation, d'héritage et de polymorphisme des langages orientés objet2. En C# tous les types sont des objets2. Le langage comporte un ramasse-miettes et un système de gestion d'exceptions2.
Le typage sûr signifie notamment que les opérations suivantes sont refusées : utilisation de variable non initialisée, tentative d'accéder au-delà des limites d'un tableau, conversions de type dont les résultats ne sont pas prévisibles, dépassement des limites lors d'opérations arithmétiques2.
Beaucoup de possibilités de Java se retrouvent dans C# et il y a une forte ressemblance entre un code écrit en C# et le code équivalent en Java2.
En C# les variables peuvent être d'un type référence ou d'un type valeur. Les types valeur sont les types primitifs, les énumérations, les struct et les types nullable3. Les types référence sont les classes, les interfaces, les tableaux et les delegate3.
Types primitifs
Les types primitifs sont sbyte, short, int, long, byte, ushort, uint, ulong, char, float, double, decimal et bool3.
class
Les constructions les plus fondamentales du langage C# sont les classes. Celles-ci peuvent contenir des constantes, des champs, des propriétés, des indexeurs, des méthodes, des événements, des opérateurs, des constructeurs, des destructeurs ou des sous-classes3. Les classes élémentaires sont string et object3.
struct
Les struct sont similaires aux classes, mais ce sont des types valeurs et ils ne peuvent pas être hérités3.
delegate
Un delegate est une référence à une méthode qui comporte certains paramètres. Les delegates permettent d'assigner des méthodes à des variables et les passer en paramètre3.
enum
Un type énuméré est un type valeur qui comporte un lot de constantes. Chaque type énuméré a un type sous-jacent : un type primitif déterminé en fonction des valeurs des constantes.
type nullable
Les nullable sont des types primitifs qui peuvent en plus avoir la valeur null3. Chaque type primitif T a un type nullable associé T?. Par exemple une variable de type int? peut contenir un int ou null3.
Journées ABES 2014 - 20 mai 2014 - Jean Bernon, chargé de mission à l'ABES pour le projet de Système de Gestion de Bibliothèque mutualisé (SGBm) et Pascal Pérotin, nouvellement nommé directeur du projet de mise en œuvre d'un SGBm : "Focus sur le projet SGBm" -
Journée d'étude "Evolutions des catalogues, évolutions des métiers, ce qui va changer dans nos établissements" le 29 mars 2013, proposée par le CRFCB en collaboration avec l'ABF Midi-Pyrénées
Depuis plusieurs années l’évolution des catalogues, l’arrivée de RDA, l’implémentation des FRBR alimentent les débats. Au-delà du jargon et des débats de spécialistes, il y a de vraies questions pour les bibliothèques, des enjeux importants pour l’avenir, des décisions qu’il convient d’anticiper et de préparer.
Cette journée a pour objectif de rappeler la réalité derrière des mots parfois abscons, souvent lointains, de souligner ce qui va changer dans nos établissements et les questions que soulèvent ces changements certes longs, parfois encore en instance mais auxquels tous les établissements devront demain se préparer...
Webinar : Les enjeux du moteur de rechercheCore-Techs
"Un moteur de recherche, ça trouve !!"
Oui, certes, mais combien sont les internautes qui se plaignent de passer un temps infini à chercher le bon contenu, ou abandonnent, faute d'avoir trouvé chaussure à leur pied !
Les moteurs de recherche sont aujourd'hui l'une des pierres angulaires d'une UX (expérience utilisateur) réussie. Il est vital d'identifier ce qu'un moteur de recherche peut faire, doit faire et sait faire :
- Quelles données indexer et comment ?
- Comment rendre mes données intelligentes ?
- Quelles aides à la recherche proposer ?
- Comment garantir des résultats fiables et pertinents ?
- Comment faire rentrer mon site dans l'ère du Web sémantique ?
Lors de ce webinar, découvrez comment faire de votre moteur de recherche la "killer app" de votre site Web !
Conférence animée par : Marine SOROKO (Directrice associée, Core-Techs)
Gestion des données scientifiques en imagerie in vivo – Journée scientifique organisée par PIV le 7 décembre 2017 au PARCC-HEGP
Marie-Christine Jacquemot
OPIDOR
Utilisation et concepts du web 2.0 dans les catalogues de bibliothèques spéci...Dujol Lionel
intervention dans le cadre d'une journée d'étude organisée par le réseau des documentalistes de l'NRA " Web 2.0 ... et si on parlait de Science 2.0 ? "
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entre...Antidot
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entreprise
Créez de nouvelles applications qui répondent à des besoins métier, de façon rapide et agile, en réutilisant et valorisant les données déjà existantes dans votre système d’information. Déployez un moteur de recherche d’entreprise vraiment intelligent.
Les systèmes d’information des entreprises se sont construits de façon incrémentale. Chaque nouveau besoin opérationnel a déclenché la mise en œuvre d’une application ad hoc : ERP, CRM, GED, annuaire, messagerie, extranet… Le développement du SI a été pensé en termes d’applications et de processus. Chaque nouvelle application a entrainé la création d’un silo de données si bien que les entreprises sont aujourd’hui confrontées à un nouveau défi : la gestion et la valorisation de ces données par essence hétérogènes et cloisonnées.
Le Linked Enterprise Data repense l’accès à l’information pour atteindre cet objectif. Il crée un espace informationnel unifié qui se nourrit de l’ensemble des données de l’entreprise, structurées ou non, voire de données externes captées sur Internet.
Évolutif et agile par essence, le Linked Enterprise Data permet de créer les données opérationnelles demandées par les métiers sans modification des applications existantes ni perturbation du système d’information. Les bénéfices du Linked Enterprise Data sont nombreux :
- Décloisonner les données en offrant un hub informationnel qui permet à chaque application de s’enrichit des données en provenance de tout le SI.
- Bénéficier d’un cadre technologique ouvert, standardisé, sécurisé, pérenne et performant défini par le W3C (avec les standards XML, RDF, SPARQL, OWL).
- Réduire la complexité par une méthodologie unifiée pour l’échange de données entre applications, que les données soient internes ou externes à l’entreprise.
Le Linked Enterprise Data c’est aussi l’opportunité de créer de nouvelles applications pour répondre à des besoins métier spécifiques, comme des applications mobiles pour les ventes ou le support, de façon rapide et efficace en réutilisant et valorisant les données déjà existantes dans le système d’information.
En apportant à chaque utilisateur les vues métiers dont il a besoin, les solutions Antidot ouvrent une nouvelle voie dans la recherche et l’accès à l’information.
Présentation faite par Pierre Col (Antidot) lors de la conférence T2M Lyon le 13 novembre 2013
Les correspondants autorités : missions, outils, enjeux - 2 octobre 2014 à la...ABES
Les correspondants autorités : missions, outils, enjeux - François Mistral (Abes) dans le cadre de la Journée d'étude dédiée aux correspondants Autorités du 2 octobre 2014 à la BULAC.
Datalift, une plateforme Linked Data, Retour d'expériencesSemWebPro
La production, la consommation et l'échange de données s'intensifient et le besoin d'interopérabilité n'a jamais été aussi prégnant. Mais a-t-on encore le temps de développer des interfaces ou de mettre au point une langue commune entre acteurs ? A-t-on encore besoin de telles interfaces qui ne serviront peut-être qu’une fois ? Ou bien la solution n’est pas plutôt dans une data interopérable ? Le linked data n'est plus un Eldorado incertain, il est devenu une réalité aux dimensions vastes et en expansion mais encore méconnue.
Datalift est une plateforme tout-en-un productrice de linked data qui apporte une solution concrète et aisée. Les données à traiter sont captées dans leurs structures d'origine (fichiers, bases de données, requêtes, données géographiques, etc.). A l'aide de vocabulaires (thesaurus, ontologies), elles sont transformées pour faciliter leurs liaisons. Les fusions obtenues enrichissent mutuellement les sources en même temps qu’elles forment un ensemble de données liées (linked data) exploitables de multiples façons : requêtes, data visualisation, extractions, exports dans de nombreux formats. Ces opérations peuvent être réalisées sans programmation sur un socle open source de façon interactive, elles peuvent aussi être automatisées. La richesse fonctionnelle et technologique de Datalift fait que ses utilisateurs vont des simples utilisateurs aux datascientistes, mais aussi au dialogue machine to machine.
Le développement de la plateforme et son utilisation permettent aujourd'hui de dresser un premier regard rétrospectif que nous nous proposons de présenter en trois temps. Nous commencerons notre exposé par la démonstration d’une interconnexion de jeux de données hétérogènes rendue possible par un alignement d’ontologies. Cette démo visibilisera le caractère « tout-en-un » d’une plateforme qui s’installe en un clic. Nous poursuivrons par un survol de l’architecture de la plateforme. Nous terminerons par un triple retour d’expérience : méthodologique, architectural et usages.
Les archives du département de la Gironde, de la Ville de Bordeaux et de la Métropole de Bordeaux ont mis en place un système d'archivage mutualisé leur permettant de gérer leurs documents tout au long de leur cycle de vie, depuis leur conception initiale jusqu'à leur archivage. Ce système repose sur diverses applications logiciel libre prenant chacune en charge une partie du cycle de vie des documents (Alfresco pour la GED courante, Asalae pour l'archivage, etc.)
Dans le cadre de ce système, lors du passage d'un outil à l'autre, un grand nombre de métadonnées sont perdues et doivent donc être ressaisies. D'où l'idée de mettre en place un référentiel commun qui va constituer un pivot sur lequel s'appuient les autres outils, et qui va conserver et enrichir les métadonnées d'un document tout au long de son cycle de vie, au fil de ses passages d'une application à l'autre. Ces métadonnées sont, par exemple, le rangement dans des
plans de classement, les agents étant intervenus sur le document, les étapes du processus de validation, etc.)
Dans le cadre d'un marché public, Logilab développe le référentiel commun du système d'archivage pour le compte du Conseil Départemental de la Gironde, de la Métropole de Bordeaux et de la Ville de Bordeaux.
La présentation présente l'outil logiciel libre qui a vocation à être partagé avec d'autres institutions rencontrant une problématique similaire, mais également de revenir sur le projet lui-meme qui implique de nombreux acteurs et a été géré avec une méthode agile et divers outils innovants (MVP, UX Design, etc.)
Voir http://saem.e-bordeaux.org/projet-module-r%C3%A9f%C3%A9rentiel pour plus de détails.
Jabes 2011 - Session plénière 17 mai "OCLC - orientations stratégiques", Eric Van Lubeek, directeur général OCLC Europe Moyen-Orient et Afrique, dans le cadre des Journées Abes 2011
C# est un langage dérivé du C++, il apporte un typage sûr, ainsi que les possibilités d'encapsulation, d'héritage et de polymorphisme des langages orientés objet2. En C# tous les types sont des objets2. Le langage comporte un ramasse-miettes et un système de gestion d'exceptions2.
Le typage sûr signifie notamment que les opérations suivantes sont refusées : utilisation de variable non initialisée, tentative d'accéder au-delà des limites d'un tableau, conversions de type dont les résultats ne sont pas prévisibles, dépassement des limites lors d'opérations arithmétiques2.
Beaucoup de possibilités de Java se retrouvent dans C# et il y a une forte ressemblance entre un code écrit en C# et le code équivalent en Java2.
En C# les variables peuvent être d'un type référence ou d'un type valeur. Les types valeur sont les types primitifs, les énumérations, les struct et les types nullable3. Les types référence sont les classes, les interfaces, les tableaux et les delegate3.
Types primitifs
Les types primitifs sont sbyte, short, int, long, byte, ushort, uint, ulong, char, float, double, decimal et bool3.
class
Les constructions les plus fondamentales du langage C# sont les classes. Celles-ci peuvent contenir des constantes, des champs, des propriétés, des indexeurs, des méthodes, des événements, des opérateurs, des constructeurs, des destructeurs ou des sous-classes3. Les classes élémentaires sont string et object3.
struct
Les struct sont similaires aux classes, mais ce sont des types valeurs et ils ne peuvent pas être hérités3.
delegate
Un delegate est une référence à une méthode qui comporte certains paramètres. Les delegates permettent d'assigner des méthodes à des variables et les passer en paramètre3.
enum
Un type énuméré est un type valeur qui comporte un lot de constantes. Chaque type énuméré a un type sous-jacent : un type primitif déterminé en fonction des valeurs des constantes.
type nullable
Les nullable sont des types primitifs qui peuvent en plus avoir la valeur null3. Chaque type primitif T a un type nullable associé T?. Par exemple une variable de type int? peut contenir un int ou null3.
Journées ABES 2014 - 20 mai 2014 - Jean Bernon, chargé de mission à l'ABES pour le projet de Système de Gestion de Bibliothèque mutualisé (SGBm) et Pascal Pérotin, nouvellement nommé directeur du projet de mise en œuvre d'un SGBm : "Focus sur le projet SGBm" -
Journée d'étude "Evolutions des catalogues, évolutions des métiers, ce qui va changer dans nos établissements" le 29 mars 2013, proposée par le CRFCB en collaboration avec l'ABF Midi-Pyrénées
Depuis plusieurs années l’évolution des catalogues, l’arrivée de RDA, l’implémentation des FRBR alimentent les débats. Au-delà du jargon et des débats de spécialistes, il y a de vraies questions pour les bibliothèques, des enjeux importants pour l’avenir, des décisions qu’il convient d’anticiper et de préparer.
Cette journée a pour objectif de rappeler la réalité derrière des mots parfois abscons, souvent lointains, de souligner ce qui va changer dans nos établissements et les questions que soulèvent ces changements certes longs, parfois encore en instance mais auxquels tous les établissements devront demain se préparer...
Webinar : Les enjeux du moteur de rechercheCore-Techs
"Un moteur de recherche, ça trouve !!"
Oui, certes, mais combien sont les internautes qui se plaignent de passer un temps infini à chercher le bon contenu, ou abandonnent, faute d'avoir trouvé chaussure à leur pied !
Les moteurs de recherche sont aujourd'hui l'une des pierres angulaires d'une UX (expérience utilisateur) réussie. Il est vital d'identifier ce qu'un moteur de recherche peut faire, doit faire et sait faire :
- Quelles données indexer et comment ?
- Comment rendre mes données intelligentes ?
- Quelles aides à la recherche proposer ?
- Comment garantir des résultats fiables et pertinents ?
- Comment faire rentrer mon site dans l'ère du Web sémantique ?
Lors de ce webinar, découvrez comment faire de votre moteur de recherche la "killer app" de votre site Web !
Conférence animée par : Marine SOROKO (Directrice associée, Core-Techs)
Gestion des données scientifiques en imagerie in vivo – Journée scientifique organisée par PIV le 7 décembre 2017 au PARCC-HEGP
Marie-Christine Jacquemot
OPIDOR
Utilisation et concepts du web 2.0 dans les catalogues de bibliothèques spéci...Dujol Lionel
intervention dans le cadre d'une journée d'étude organisée par le réseau des documentalistes de l'NRA " Web 2.0 ... et si on parlait de Science 2.0 ? "
Similar to Présentation de Paprika - Journée professionnelle Systèmes & Données 15-11-2019 (20)
Jabes 2021 - Poster "Initiation aux études historiques"ABES
MANUEL NUMÉRIQUE EN ACCÈS LIBRE
POUR L’ENSEIGNEMENT SUPÉRIEUR EN HISTOIRE
• Favorise l’apprentissage des modes
de réflexion propres à l’historien
• Familiarise l’étudiant à la maîtrise
des sources et outils de l’historien
• Ouvre l’étudiant aux disciplines qui
environnent et nourrissent la science
historique
• Donne à l’étudiant les repères
historiographiques
Poster présenté par COUPERIN
Jabes 2021 - Session "Repenser le SI de l'Abes en période de transition(s)"ABES
Session coordonnée par Marianne Giloux (Abes).
Cette session aborde les points suivants :
- Un renouvellement conceptuel international
- Un renouvellement technologique nécessaire
- La transition bibliographique de l’Abes : l’expérimentation SudocFRBR, le FNE, le projet Sudoc21 et lme projet "Vers la LRMisation des données"
Jabes 2021 - 26 ans après la création de l'AbesABES
Présentation de David Aymonin, directeur de l'Abes
Intervention qui brosse un tableau synthétique de ce que fait l’Abes aujourd’hui : à quoi sert-elle ? dans quel contexte ? pour qui travaille-t-elle ? de quelle manière et avec qui ?
Présentation des Actus de l'Abes 2021, partie 1.
Cette partie est consacré aux actions de l'Abes au service de l'IST, de la Science Ouverte et des grands projets nationaux.
Poster présenté par l'Abes (hors concours).
Depuis 2019, l’Abes teste un nouvel algorithme développé par OCLC pour créer automatiquement des pré-notices d’œuvres, à partir de regroupements de notices bibliographiques. Ce premier pas dans la FRBRisation (aujourd'hui on parle de LRMisation) des données du catalogue Sudoc s’est accompagné d’un contrôle très strict des performances et des résultats de ce "robot". L’expérimentation aujourd’hui terminée, il est temps d’en dresser le bilan, pour vérifier dans quelle mesure, à l’avenir, les algorithmes et l’intelligence artificielle seront d’un précieux recours pour modéliser des millions de données.
Jabes 2021 - Poster "Les données de la recherche à l'Université de Toulouse J...ABES
Poster présenté par le SCD de l'Université de Toulouse 2 Jean Jaurès.
Le Service Commun de la Documentation de l’Université Toulouse - Jean Jaurès a mis en place un service d'accompagnement à la gestion des données qui s'articule autour :
- d'une offre de formation à destination des doctorants
- d'un accompagnement des chercheurs
La mise en œuvre de cet appui en collaboration avec l'ensemble des acteurs impliqués au niveau de l'établissement a permis un reconnaissance du SCD comme un acteur primordial sur ces questions. Ainsi, dans le cadre de la formalisation des acteurs de la Science Ouverte au sein de l’établissement, la vice-présidence recherche a chargé le SCD d'assurer les fonctions d'administrateur.rice des données, des algorithmes et des codes sources de la recherche et de co-piloter le comité opérationnel des données de la recherche.
Jabes 2021 - Poster "Utiliser des plugins pour améliorer la qualité de votre ...ABES
Poster présenté par l'association KohaLa.
Ce poster présente le plugin Koha qui permet d’insérer des identifiants pérennes trouvés par Bibliostratus dans des notices bibliographiques (ark ou PPN) et autorités (ark, isni, Idref).
Jabes 2021 - Poster "Projet d'exposition documentaire et participative pour u...ABES
Poster présenté par le SCD de l'Université Toulouse 2 Jean Jaurès.
L’objet de ce poster est de présenter la démarche qui a conduit à un projet d’expositions participatives autour de la collection cartographique patrimoniale de l’Université Toulouse Jean Jaurès, conservée au Centre de Ressources Olympe de Gouges. Après avoir découvert en 2007 cette collection sans usages, alors que j'étais responsable de la bibliothèque de Géographie, j'ai décidé de mener à partir de 2010 des recherches en Sciences de l’Information et de la Communication sur le document carte. Après l'obtention de mon doctorat en 2015, j'ai poursuivi des travaux scientifiques sur une méthode favorisant l’appropriation des valeurs informatives de ce document singulier dans l'idée de développer des médiations. Depuis deux ans, j'expérimente ainsi des ateliers avec des usagers placés en situation d’enquêter sur des cartes, en vue de réaliser des posters documentaires. Les objectifs de l'application professionnelle de mes réflexions sont multiples : créer du lien entre des documents patrimoniaux sans usages et des potentiels récepteurs, les inviter à découvrir et à utiliser des documents dans une démarche de réactivation, les inciter à avoir des lectures plurielles d'un même document, et enfin proposer un autre modèle d’expositions afin de vivifier des collections en dormance documentaire.
Jabes 2021 - Poster "CorHAL, une voie pour les chercheurs : simplifier le dép...ABES
Poster présenté par l'INISTCNRS et le CCSD.
Lancé au printemps 2021 et soutenu par le MESRI, corHAL proposera ses services à la fin de l’année. Porté par l’Inist et le CCSD, ce projet permet de collecter des métadonnées de publications scientifiques françaises issues de plusieurs réservoirs. Ces données sont homogénéisées et enrichies à l’aide d’alignements. Un repérage de doublons assure la création de notices unifiées combinant les informations des différentes sources. Grâce à un système d’alertes (mode push ou pull), le service propose au chercheur ses publications absentes de HAL. Ce dernier choisit d’importer automatiquement aucun, un, plusieurs ou tous les textes intégraux de ses publications dans l’archive ouverte nationale.
CorHAL, un outil au service du chercheur et de la science ouverte.
Newsletter SPW Agriculture en province du Luxembourg du 03-06-24BenotGeorges3
Les informations et évènements agricoles en province du Luxembourg et en Wallonie susceptibles de vous intéresser et diffusés par le SPW Agriculture, Direction de la Recherche et du Développement, Service extérieur de Libramont.
https://agriculture.wallonie.be/home/recherche-developpement/acteurs-du-developpement-et-de-la-vulgarisation/les-services-exterieurs-de-la-direction-de-la-recherche-et-du-developpement/newsletters-des-services-exterieurs-de-la-vulgarisation/newsletters-du-se-de-libramont.html
Bonne lecture et bienvenue aux activités proposées.
#Agriculture #Wallonie #Newsletter #Recherche #Développement #Vulgarisation #Evènement #Information #Formation #Innovation #Législation #PAC #SPW #ServicepublicdeWallonie
M2i Webinar - « Participation Financière Obligatoire » et CPF : une opportuni...M2i Formation
Suite à l'entrée en vigueur de la « Participation Financière Obligatoire » le 2 mai dernier, les règles du jeu ont changé !
Pour les entreprises, cette révolution du dispositif est l'occasion de revoir sa stratégie de formation pour co-construire avec ses salariés un plan de formation alliant performance de l'organisation et engagement des équipes.
Au cours de ce webinar de 20 minutes, co-animé avec la Caisse des Dépôts et Consignations, découvrez tous les détails actualisés sur les dotations et les exonérations, les meilleures pratiques, et comment maximiser les avantages pour les entreprises et leurs salariés.
Au programme :
- Principe et détails de la « Participation Financière Obligatoire » entrée en vigueur
- La dotation : une opportunité à saisir pour co-construire sa stratégie de formation
- Mise en pratique : comment doter ?
- Quelles incidences pour les titulaires ?
Webinar exclusif animé à distance en coanimation avec la CDC
M2i Webinar - « Participation Financière Obligatoire » et CPF : une opportuni...
Présentation de Paprika - Journée professionnelle Systèmes & Données 15-11-2019
1. Visualiser et produire différemment de bonnes données d’autorité liées
Aline Le Provost (le-provost@abes.fr)Journée « Métadonnées en bibliothèques », 14/11/2019
4. IdRef : référentiel partagé
un cercle vertueux
4
Un peu de lecture
• http://mutualisationpratiquesdoc.enssib.fr/lire-en-ligne/II-3-mutualiser-metadonnee-idref
• http://urfist.chartes.psl.eu/ressources/idref-et-son-offre-de-services-comment-et-pourquoi-mener-un-projet-avec-des-identifiants
• https://punktokomo.abes.fr/?s=idref
• http://documentation.abes.fr/aideidref/accueil/fr/index.html
5. « notre catalogue n'est pas sur
son parcours »
VS
« sortir de la notion de
catalogue et s'intégrer dans le
web »
La Transition Bibliographique distillée
5
Extrait de : Programme transition bibliographique, Web
sémantique et Web de données. Sensibilisation à l’évolution
des catalogues.
Source : https://www.aroma-essentiel.fr/blog/34_distillation-autres-methodes-extraction
6. « De quel outil disposons-nous pour analyser les relations
entre les données au sein des catalogues de bibliothèques ? »
À la distillerie : les outils
6
Extrait de : Programme transition
bibliographique, Web sémantique
et Web de données. Sensibilisation
à l’évolution des catalogues.
Source : https://cache.larvf.com/data/photo/w1000_ci/4w/165078.jpg
7. • Ouvert depuis mars 2019 à tous les catalogueurs Sudoc
• Contrôle qualité des liens entre notices bibliographiques et notices
d'autorité personnes physiques (entités agents > personnes)
• Pour visualiser et agir : créer et modifier des liens
• Connecté à la base bibliographique Sudoc et à la base d’autorités IdRef
7
8. Périmètre actuel de Paprika
Le Sudoc : cœur d’un système extensible
• Réservoir national de données structurées
• Point de convergence
• Catalogage partagé = force d’un collectif
Les personnes physiques : des entités choyées
• Elles forment un gros paquet
• Elles sont très bien couvertes par IdRef
• Elles sont stratégiques
8
11. Contexte d’utilisation
Différents usages possibles
• Pour un chantier rétrospectif de corrections d’anomalies
• Comme appui visuel au quotidien
• A partir d’une liste de personnes ou de publications
Un besoin d’intégration plus important
• Fluidité avec les interfaces de catalogage
• Connexion avec d’autres services de contrôle
11
12. Retour à la distillerie
12
Les bienfaits
+++ Les soins apportés ici seront bénéfiques ici, mais aussi là… et là-bas
+++ Penser global, agir local / Penser local, agir global
+++ Récupérer de bonnes données dans les catalogues locaux
La diversification
Sources (Persée, Hal, Calames…)
Cibles (BnF, ISNI, ORCID, IdHal…)
Entités (collectivités, œuvres)
Je travaille au sein du service Autorités et Référentiels de l’Abes. Je suis responsable de l’application paprika.idref.fr, que je vais vous présenter aujourd’hui.
Le nom de l’application correspond à son URL d’accès. Et dedans il y a « IdRef ». Idref est la base d’autorités maintenu par l’Abes.
TRANSITION -> IdRef KESAKO
Avant d’entrer dans le vif du sujet, je voudrais passer par quelques éléments de contexte.
L’origine d’IdRef, ce sont les autorités Sudoc.
Depuis sa création il y a 10 ans, les catalogues par l’Abes sont liés à IdRef : le Sudoc en premier lieu, les applications liées au signalement des thèses et Le catalogues des manuscripts de l’ESR Calames.
- Un référentiel interopérable. On perçoit l’interopérabilité à travers différents services d’IdRef
« connectable » à n’importe quelle application
Des web services, pour le réutiliser les données
L’interface publique, qui permet de voir une fédération de métadonnées
ouvert, exposé sur le web de données : data.idref.fr, pour interroger les données autrement => contient les données d’autorités et les liens vers les références documentaires liées : pour l’instant Sudoc, mais à terme toutes les références issues d’autres catalogues (comme theses.fr, calames, hal ou persée).
Le graphe représente le cadre plus large : des référentiels liés entre eux à différents niveaux.
TRANSITION -> Puisque cette journée est consacrée aux données d’autorités, laissez-moi développer un petit peu sur IdRef.
Ça permettra aux personnes dans la salle qui ne sont pas membres du réseau Sudoc de comprendre un peu le contexte.
IdRef va au-delà des applications maintenues par l’Abes.
A gauche, les 3 catalogues historiques / A droite, de nouveaux acteurs.
Les usages d’IdRef aujourd’hui sont multiples : chacun peut faire son miel de cet entrepôt de données interopérable.
Toutes ces images représentent des portails de ressources, des projets, des outils qui utilisent IdRef à un moment de leur processus.
RERO
logo de Collex persée : développer des services pour et surtout AVEC les chercheurs
Toutes ces contributions à différentes échelles sont bénéfiques de façon réciproque.
IdRef s’enrichie et se consolide grâce aux liens qui apportent de nouvelles informations
les systèmes d’informations sont enrichis et sont interopérables / les services rendus sont meilleurs.
Tous ces chantiers, ces projets, ces raccrochements, ces coups de crayon sont toujours source d’amélioration des données. Car il faut souvent corriger et enrichir ces dernières.
C’est ce qu’on appelle de nos jours la curation, le fait de soigner les données. IdRef est un cadre collectif pour la curation des données.
TRANSITION ->TB
Qu’est-ce que tout cela a à voir avec la Transition bibliographique ?
Aujourd’hui l’idée est de parler de la manière dont la transition bibliographique s’implémente au quotidien.
Mais d’abord, quelle est l’essence de la TB ?
Comment à partir du feu qui est la volonté de toute une communauté, on distille les catalogues et les ressources pour arriver à ces 2 grands objectifs ?
Il me semble qu’on peut voir IdRef comme un vecteur permettant cette ouverture que l’on appelle tous de nos vœux.
Finalement, un référentiel partagé comme IdRef, et plus tard le FNE (dont vous avez tous, j’imagine, entendu parlé) devient un moteur de la TB.
Si nous avons besoin de vecteurs, nous avons aussi besoin d’outils. Et c’est là que j’en viens à Paprika.
On parle ici beaucoup de RDA, de LRM, des entités et de la manière dont on pourra visualiser les données dans nos catalogues.
Pour que la transition opère cependant, nous avons aussi besoin d’outils professionnels nouveaux, pour apprendre à travailler différemment. On a besoin d’interfaces qui permettent de voir les entités en dehors du modèle traditionnel de la notice : c’est ce que promet la TB. Ces outils doivent donc incarner cette ambition.
Avec Paprika, il est question des liens entre les entités (ce dont vous a parlé Françoise tout à l’heure).
Paprika propose une autre façon de visualiser les données.
Avec Paprika, on s’intéresse aux entités personnes. On va regarder non pas les notices, mais les entités personnes avec toutes les données qui leur sont associées.
Qu’est-ce que Paprika ?
Tout d’abord, c’est un service d’IdRef.
TRANSITION -> pour le Sudoc
Pour l’instant, Paprika est disponible pour le catalogue Sudoc uniquement.
Le Sudoc, c’est le socle de tout cela :
son réservoir de données de 15 millions de notices
son organisation et son grand principe : le catalogage partagé.
convergence de plusieurs réseaux
=> Le Sudoc alimente et consolide le référentiel IdRef, puisque c’est grâce aux liens que l’on arrive à identifier les entités.
Les bibliothèques de l’ESR, avec leur réseau bien organisé, peuvent être motrices. Les autorités, la description structurée c’est leur rayon.
On arrive depuis quelques années (la technique, la reflexion, les enjeux autour de la connaissance) à un moment où ce bagage vaut de l’or.
Et les personnes physiques car elle sont très importantes.
Attention : ça ne veut pas dire que les autres ne sont pas importantes. C’est juste que pour le moment, ce n’est pas sur ces entités que l’on s’est concentré.
Mais le boulot qu’on fait sur les personnes ne sera pas perdu pour les autres entités (notamment les collectivités et les œuvres) : la structure sera la même / la logique aussi.
*1ere partie : basique avec sudoc*
Pour vous montrer qu’il s’agit d’une représentation visuelle avec une vue d’ensemble à partir d’un nom et d’un prénom.
Insister sur la visualisation détaillée
*2eme partie : appel qualinka*
Les utilisateurs de Paprika peuvent appeler un outil appelé Qualinka. C’est un clin d’œil au projet de recherche Qualinca (lui avec un « c ») auquel l’Abes a participé entre 2012 et 2016, avec une équipe de chercheurs de l’équipe GraphIK du LIRMM de Montpellier.
Une fonctionnalité qui fait appel à un programme de traitement automatisé, c’est un peu de l’intelligence artificielle. Ce programme est accessible par web service, donc toute applications web peut s’en servir. Je ne rentrerai pas dans les détails de son fonctionnement ici.
Ce qui m’intéresse c’est de vous montrer son utilisation à travers Paprika.
Qualinka c’est un vrai outil d’aide à la décision : produire différemment c’est aussi produire avec de l’aide. Là encore, on est dans une démarche d’amélioration de l’environnement de travail pour pouvoir effectuer de nouvelles tâches.
Cela permet :
de se concentrer sur les cas complexes, que la machine ne peut pas résoudre.
de confirmer un premier débroussaillage
de vérifier rapidement la cohérence globale au sein d’une boite d’autorité
Une nouvelle version de Qualinka a été développée et permettra :
d’améliorer les temps de traitement,
De montrer les justifications du programme (pourquoi ce point d’accès est-il en rouge/vert ?),
d’ajouter de nouvelles fonctionnalités : regroupement (clusters) et détection de doublons.
*3eme partie : ouverture avec hal*
C’est une démo pour l’instant, la présentation est indicative.
Vous pouvez voir qu’en ajoutant un paramètre dans l’URL, je récupère des points d’accès issus de publications HAL.
Paprika interroge la base de donnée HAL grâce à l’API de recherche.
Je peux déplacer les boîtes vers la bonne autorité IdRef. L’idéal serait ensuite de pouvoir enregistrer ces nouveaux liens dans la base de HAL qui accepte les ID IdRef.
Mais, si cela n’est pas possible, ces ID pourront être stocké dans notre base interne d’alignements qui viendra alimenter data.idref.fr.
J’ai pu m’entretenir avec plusieurs utilisateurs (en l'occurrence, des utilisatrices) qui m’ont dit comment elles utilisaient paprika.
Selon leurs fonctions particulières au sein du réseau Sudoc, ça peut être différent.
1) Par exemple, les utilisateurs aimeraient pouvoir corriger les données dans Paprika plutôt que de changer d’interface (exemple : code de fonction erroné)
2) Environnement de travail intégré : alignements, stockage des alignements, détections d’anomalies (algoLiens, algoDoublons)…
Il s’agit de passer des listes, bien souvent dans des tableaux excel, à leur visualisation dans l’interface.
LES BIENFAITS
En utilisant paprika sur les données que vous décidez de choyer, vous bénéficierez de ces bonnes données dans votre catalogue local et vous ferez bénéficier toute la communauté.
J’ai parlé d’un cercle vertueux : Plus il y a de contributeurs, plus il y a de liens et plus la base est riche. Et plus la base est riche, plus chaque catalogue est riche.
Transition : mais il faut aussi que les outils soient accessibles plus largement. Au-delà du Sudoc.
SE DIVERSIFIER
Comme vous avez pu voir dans ma courte démo avec les entités issues de Hal, nous avons la volonté d’ajouter d’autres sources, i.e. d’autres catalogues connectés à IdRef.
Et puis, derrière Paprika il y a un logiciel générique qui peut être exploité :
pour corriger d’autres types de données => c’est-à-dire qu’au lieu de voir des points d’accès personnes physiques, on verrait des points d’accès collectivité ; ou bien des entités œuvres au lieu des entités personnes.
pour lier vers d’autres référentiels => C’est-à-dire qu’au lieu d’IdRef, il y aurait les autorités de la Bnf ou bien les entités ISNI.
Voilà, vous avez pu voir ce qu’était Paprika. J’ai essayé de remettre dans le contexte : celui du catalogue Sudoc, mais aussi d’un réseau bien plus large et qui ne cesse de grandir : le réseau des utilisateurs et contributeurs du référentiel partagé IdRef.
Un mot de conclusion : pour que les catalogues de bib évoluent vraiment, il faut peut-être aussi des outils pour ouvrir le champ de vision des bibliothécaires en leur offrant des outils plus génériques, moins techniques, moins « jargoneux ». Pour que les bibliothécaires aujourd’hui catalogueurs (dans un sens très large qui inclus les admistrateurs Hal par exemple) puissent comprendre les mutations progressives de leurs fonctions.
Quelques mots d’utilisateurs que j’ai récemment interviewer au sujet de Paprika.