The document summarizes highlights from the TechCast Project, which uses collective intelligence to forecast trends related to technology, the digital economy, and global change out to 2030. It discusses forecasts for areas like artificial intelligence, the digital economy, social trends, wild cards, and provides a most likely scenario for 2020-2030. The scenario envisions advances in sustainability, transportation, extending life, threats from various crises, higher social values, infinite knowledge/intelligence, and a potential global consciousness movement.
Das Doppelhaus: Werkstattbericht aus der MARC/RDA Working Group
Vortrag beim 109. Deutschen Bibliothekartag 2021
Auf der Basis des IFLA Library Reference Model (LRM) wurden im Zuge des 3R-Projekts neue Entitätentypen und neue Elemente in das Regelwerk Resource Description and Access (RDA) eingebracht. Um sie nutzbar zu machen, gilt es, sie im Datenformat MARC 21 abzubilden, soweit es notwendig und zugleich technisch möglich ist. MARC 21 ist auch über 50 Jahre nach seiner Entstehung noch immer das international am weitesten verbreitete bibliografische Datenformat.
Das Network Development and MARC Standards Office (NDMSO) der Library of Congress hat im Dezember 2019 die "MARC/RDA Working Group" gebildet, zusammengesetzt aus internationalen Fachleuten für RDA und MARC 21. Für den deutschsprachigen Bereich ist Reinhold Heuvelmann benannt worden.
Die Gruppe hat in bisher vier halbjährlichen Zyklen Analysen erstellt zu den neuen Themenbereichen "Manifestation Statements", "Mode of Issuance", "Extension Plan", "Type of Binding" und "Data Provenance", die dann als Diskussionspapiere und Anträge für das MARC Advisory Committee vorbereitet worden sind. Bisher resultieren daraus die neuen Felder 334 "Mode of Issuance", 335 "Extension Plan" und 881 "Manifestation Statements". Auch an dem Thema der "Representative Expression" und ihrer Attribute wird weitergearbeitet. Mit dem vorläufigen Abschluss der Arbeiten ist für das Frühjahr 2022 zu rechnen.
Der Vortrag stellt den aktuellen Stand und den Fortgang der Arbeiten dar und versucht auch, die Spannungsfelder bei der Regelwerks- und Formatentwicklung zu beleuchten.
Open Access, Embargo, Lizenzangaben, Creative Commons, Rights Statements, Rechteinhaber – diese Begriffe bezeichnen ein aktuell intensiv diskutiertes Themenfeld. Kann ich eine Online-Publikation bekommen, sofort, kostenfrei und egal wo ich mich gerade befinde? Und wenn ja: Was kann und darf ich dann damit machen, und was eventuell nicht? Und was sollte ich sonst beachten?
Diese Angaben sind bisher in Metadatenformaten unterrepräsentiert. Teils liegen sie an unterschiedlichen Stellen und in unterschiedlicher Form vor, teils sind die Elemente nicht besetzt, teils fehlen die Aussagemöglichkeiten ganz. Hier gilt es Verbesserungen zu erreichen: Ziel ist es, konsistente und maschinell auswertbare Daten zu ermitteln, zu erstellen und transportieren zu können, auf deren Basis den Endnutzenden die Informationen zu Zugang und Nutzung und ihren Bedingungen angeboten werden.
Der Vortrag schildert das Vorgehen im Datenformat MARC 21: Von der Ermittlung des Bedarfs und dem Auftrag durch den Standardisierungsausschuss, über die Analysen und Diskussionen in der Themengruppe Lizenzangaben als Untergruppe der Fachgruppe Datenformate und in der DINI Gruppe Lizenzen, bis zur Zusammenarbeit mit OCLC an Diskussionspapieren und einem MARC-Antrag und der internationalen Standardisierung im MARC Advisory Committee, resultierend in der abschließenden Entscheidung. Ein Ausblick auf Empfehlungen und die Anwendung der Formatelemente, deren Einführung bevorsteht, rundet den Vortrag ab.
Presentation given at the Library of Congress BIBFRAME Update Forum at ALA Midwinter Meeting 2019, January 27, 2019
Agenda at
https://www.loc.gov/bibframe/news/bibframe-update-mw2019.html
In the days of AACR2 and MARC 21, the distinction between a rules standard and a format standard seemed to be straightforward: The rules standard provided instructions on which pieces of information are relevant, and how to build and provide them. The format standard then accommodated these pieces, creating structured elements in a defined technical framework so that information could be created, stored and communicated.
Nowadays, the line between rules standards and format standards seems to be blurred. Based on relatively new models, the standard "Resource Description and Access" not only provides instructions in a toolkit, but adds blocks for handling the information on its own, e.g. as "RDA in RDF" data. On the other hand, "BIBFRAME" was developed, one of the goals being to define a successor to the MARC 21 format. Based on a model with a slightly different approach, it aims to cover different rules standards, among which RDA is the most prominent one. Both RDA and BIBFRAME are based on Linked Data principles, but they have chosen different paths.
In my lightning talk I share some observations, from a German perspective, collected over some years of active participation in MARC 21 standardization and BIBFRAME experimentation, as a bystander of the FRBR and RDA development, and still as a newbie in Linked Data. There are more questions than answers.
From enthusiasm to hesitation,and beyond: some German remarks on BIBFRAMEReinhold Heuvelmann
The document discusses the German National Library's views on BIBFRAME. It notes initial enthusiasm that has given way to some hesitation as open questions remain. These include whether BIBFRAME will run parallel to MARC, its relationship to standards like RDA, and how implementation and vendor participation will work. The document also provides examples of bibliographic data represented in different formats including MARC, Linked Data, and BIBFRAME.
The document summarizes highlights from the TechCast Project, which uses collective intelligence to forecast trends related to technology, the digital economy, and global change out to 2030. It discusses forecasts for areas like artificial intelligence, the digital economy, social trends, wild cards, and provides a most likely scenario for 2020-2030. The scenario envisions advances in sustainability, transportation, extending life, threats from various crises, higher social values, infinite knowledge/intelligence, and a potential global consciousness movement.
Das Doppelhaus: Werkstattbericht aus der MARC/RDA Working Group
Vortrag beim 109. Deutschen Bibliothekartag 2021
Auf der Basis des IFLA Library Reference Model (LRM) wurden im Zuge des 3R-Projekts neue Entitätentypen und neue Elemente in das Regelwerk Resource Description and Access (RDA) eingebracht. Um sie nutzbar zu machen, gilt es, sie im Datenformat MARC 21 abzubilden, soweit es notwendig und zugleich technisch möglich ist. MARC 21 ist auch über 50 Jahre nach seiner Entstehung noch immer das international am weitesten verbreitete bibliografische Datenformat.
Das Network Development and MARC Standards Office (NDMSO) der Library of Congress hat im Dezember 2019 die "MARC/RDA Working Group" gebildet, zusammengesetzt aus internationalen Fachleuten für RDA und MARC 21. Für den deutschsprachigen Bereich ist Reinhold Heuvelmann benannt worden.
Die Gruppe hat in bisher vier halbjährlichen Zyklen Analysen erstellt zu den neuen Themenbereichen "Manifestation Statements", "Mode of Issuance", "Extension Plan", "Type of Binding" und "Data Provenance", die dann als Diskussionspapiere und Anträge für das MARC Advisory Committee vorbereitet worden sind. Bisher resultieren daraus die neuen Felder 334 "Mode of Issuance", 335 "Extension Plan" und 881 "Manifestation Statements". Auch an dem Thema der "Representative Expression" und ihrer Attribute wird weitergearbeitet. Mit dem vorläufigen Abschluss der Arbeiten ist für das Frühjahr 2022 zu rechnen.
Der Vortrag stellt den aktuellen Stand und den Fortgang der Arbeiten dar und versucht auch, die Spannungsfelder bei der Regelwerks- und Formatentwicklung zu beleuchten.
Open Access, Embargo, Lizenzangaben, Creative Commons, Rights Statements, Rechteinhaber – diese Begriffe bezeichnen ein aktuell intensiv diskutiertes Themenfeld. Kann ich eine Online-Publikation bekommen, sofort, kostenfrei und egal wo ich mich gerade befinde? Und wenn ja: Was kann und darf ich dann damit machen, und was eventuell nicht? Und was sollte ich sonst beachten?
Diese Angaben sind bisher in Metadatenformaten unterrepräsentiert. Teils liegen sie an unterschiedlichen Stellen und in unterschiedlicher Form vor, teils sind die Elemente nicht besetzt, teils fehlen die Aussagemöglichkeiten ganz. Hier gilt es Verbesserungen zu erreichen: Ziel ist es, konsistente und maschinell auswertbare Daten zu ermitteln, zu erstellen und transportieren zu können, auf deren Basis den Endnutzenden die Informationen zu Zugang und Nutzung und ihren Bedingungen angeboten werden.
Der Vortrag schildert das Vorgehen im Datenformat MARC 21: Von der Ermittlung des Bedarfs und dem Auftrag durch den Standardisierungsausschuss, über die Analysen und Diskussionen in der Themengruppe Lizenzangaben als Untergruppe der Fachgruppe Datenformate und in der DINI Gruppe Lizenzen, bis zur Zusammenarbeit mit OCLC an Diskussionspapieren und einem MARC-Antrag und der internationalen Standardisierung im MARC Advisory Committee, resultierend in der abschließenden Entscheidung. Ein Ausblick auf Empfehlungen und die Anwendung der Formatelemente, deren Einführung bevorsteht, rundet den Vortrag ab.
Presentation given at the Library of Congress BIBFRAME Update Forum at ALA Midwinter Meeting 2019, January 27, 2019
Agenda at
https://www.loc.gov/bibframe/news/bibframe-update-mw2019.html
In the days of AACR2 and MARC 21, the distinction between a rules standard and a format standard seemed to be straightforward: The rules standard provided instructions on which pieces of information are relevant, and how to build and provide them. The format standard then accommodated these pieces, creating structured elements in a defined technical framework so that information could be created, stored and communicated.
Nowadays, the line between rules standards and format standards seems to be blurred. Based on relatively new models, the standard "Resource Description and Access" not only provides instructions in a toolkit, but adds blocks for handling the information on its own, e.g. as "RDA in RDF" data. On the other hand, "BIBFRAME" was developed, one of the goals being to define a successor to the MARC 21 format. Based on a model with a slightly different approach, it aims to cover different rules standards, among which RDA is the most prominent one. Both RDA and BIBFRAME are based on Linked Data principles, but they have chosen different paths.
In my lightning talk I share some observations, from a German perspective, collected over some years of active participation in MARC 21 standardization and BIBFRAME experimentation, as a bystander of the FRBR and RDA development, and still as a newbie in Linked Data. There are more questions than answers.
From enthusiasm to hesitation,and beyond: some German remarks on BIBFRAMEReinhold Heuvelmann
The document discusses the German National Library's views on BIBFRAME. It notes initial enthusiasm that has given way to some hesitation as open questions remain. These include whether BIBFRAME will run parallel to MARC, its relationship to standards like RDA, and how implementation and vendor participation will work. The document also provides examples of bibliographic data represented in different formats including MARC, Linked Data, and BIBFRAME.
The document discusses several MARC 21 fields that could potentially be used to represent open access and license information: Field 506 (Restrictions on Access Note), Field 540 (Terms Governing Use and Reproduction Note), Field 510 (Citation/References Note), Field 856 (Electronic Location and Access), and Field 912 (Designation of National Licenses and Digital Collections). It provides details on the definition, indicators, subfields, and usage of each field. It concludes by posing questions about which fields are currently used in practice for licensing, which fields are preferred, and whether any fields require changes to better represent licensing information.
Presentation given at the first meeting of the "LIBER MARC Harmonization Task Force" on January 14, 2002 in the German National Library in Frankfurt am Main
Presentation during the 2016 American Library Association (ALA) Annual Conference in Orlando (Florida), given at the ALCTS Program "Linked Data - Globally Connecting Libraries, Archives, and Museums", Sponsor: ALCTS International Relations Committee, Co-Sponsor: Linked Library Data Interest Group
Entitäten, Relationen und mehr - Erweiterungen in MARC 21 Authority durch di...Reinhold Heuvelmann
Präsentation gehalten von Daniela Trunk (Deutsche Nationalbibliothek) beim Normdatenanwendertreffen im Rahmen des 6. Bibliothekskongresses Leipzig 2016
Presentation given during a meeting at the German National Library, focussing on the distinction between cataloging and storage metadata formats vs. communication metadata formats, and on ways of providing provenance information.
BIBFRAME: Neues bibliografisches Datenformat, und noch viel mehr
Vortrag im Rahmen des Berliner Bibliothekswissenschaftlichen Kolloquiums, Institut für Bibliotheks- und Informationswissenschaft, Humboldt-Universität zu Berlin, am 2. Februar 2016
Die Bibliographic Framework Initiative "BIBFRAME" ist bereits einige Jahre "alt". Nach Planungen im Jahr 2011, nach Vertragsabschluss zwischen der LoC und der Firma Zepheira sowie Veröffentlichung des ersten Modellpapiers "Bibliographic Framework as a Web of Data" in 2012 folgten ein arbeitsintensives Jahr 2013, das unter Beteiligung der DNB von den Aktivitäten der Early Experimenters Group geprägt war, ein konsolidierendes Jahr 2014, in dem das bestehende Vokabular auf Praxistauglichkeit hin geprüft wurde, und ein Jahr 2015, in dem BIBFRAME mit unterschiedlichen Ansätzen (LC Pilot, Libhub.org, LD4L/LD4P) weiter vorangetrieben wurde.
In meinem Vortrag gehe ich der Frage nach, welchen Stellenwert die BIBFRAME-Initiative im Umfeld der Linked Library Data einnimmt. Wie verhalten sich BIBFRAME und andere existierende und neu entstehende Vokabularien zueinander? Sind RDA und BIBFRAME als Seiten derselben Medaille zu sehen? Welche Bezüge gibt es zu schema.org und den bibliothekarischen Erweiterungen dieses Vokabulars? Welche Rolle spielen in Zukunft noch die klassischen Datenformate, wie MARC 21 und seine Derivate? Was macht den Framework-Charakter der Initiative aus? Und: Welchen Beitrag kann die deutschsprachige Community bei der Diskussion und Entwicklung dieser Fragen weiterhin leisten?
https://www.ibi.hu-berlin.de/de/bbk
https://www.ibi.hu-berlin.de/de/bbk/abstracts/ws1516/heuvelmann
Die Bibliographic Framework Initiative "BIBFRAME" blickt jetzt auf drei Jahre zurück. Nach dem Abschluss des Vertrags zwischen der Library of Congress und der Firma Zepheira im Mai 2012 und nach der Veröffentlichung des ersten maßgeblichen Modellpapiers "Bibliographic Framework as a Web of Data: Linked Data Model and Supporting Services" im November 2012 folgten ein arbeitsintensives Jahr 2013, das unter Beteiligung der Deutschen Nationalbibliothek von den Aktivitäten der Early Experimenters / Early Implementers Group geprägt war, und ein konsolidierendes Jahr 2014, in dem das bestehende Vokabular auf Praxistauglichkeit hin geprüft wurde und ergänzende Initiativen, wie der "BIBFRAME Editor" und libhub.org, aufgesetzt wurden. Nun ist es Zeit zu fragen, was erreicht wurde und wie es weiter geht. In dem Vortrag soll beleuchtet werden, welchen Stellenwert die BIBFRAME-Initiative im Umfeld der Linked Library Data einnimmt, bisher, und besonders in den kommenden Jahren. Dabei soll die Frage untersucht werden, wie wichtig die Offenheit ist, die durch den Framework-Aspekt betont wird, im Gegensatz zu dem eher starren Standard bisheriger Prägung. Wie verhalten sich BIBFRAME und andere existierende und neu entstehende Vokabularien zueinander? Sind RDA und BIBFRAME als die beiden Seiten derselben Medaille zu sehen? Was hat es mit schema.org und den bibliothekarischen Erweiterungen dieses Vokabulars auf sich? Welche Rolle spielen in Zukunft noch die klassischen Datenformate, wie MARC 21 und seine Derivate? Und ganz wichtig: Welchen Beitrag kann die deutschsprachige Community bei der Diskussion und Entwicklung dieser Fragen weiterhin leisten?
Seit drei Jahren zieht die Bibliographic Framework Initiative "BIBFRAME" Aufmerksamkeit und Hoffnungen auf sich. Wie hat sich das Rahmenkonzept für künftige bibliografische Metadatenformate bisher entwickelt? Welche Aktivitäten gibt es bei den einstigen Early Experimenters, und darüber hinaus? Welche Ausprägungen gibt es? Wie gut passen RDA-Daten aus dem deutschsprachigen Raum zu BIBFRAME? Und wie verhalten sich BIBFRAME und andere existierende und neu entstehende Vokabularien zueinander?
Brief description of the way how libraries in German speaking countries intend to implement Content Type, Media Type and Carrier Type, according to RDA (Resource Description and Access)
Presentation given at the "Workshop für Systemanbieter" (Workshop for System Vendors) on October 23, 2014
The document discusses the development of BIBFRAME, a new bibliographic framework being developed as a replacement for MARC. It provides an overview of BIBFRAME, including its model and vocabulary, participating institutions, applications being developed, and future plans and challenges. Caveats about the transition are noted, such as concerns about the need for yet another new standard and changes to existing workflows. The future of linked library data is also speculated on.
Reinhold Heuvelmann from the German National Library presented on their work with BIBFRAME in 2013. This included learning about the BIBFRAME model and vocabulary, discussions on mapping their existing formats like Pica and MARC to BIBFRAME, and developing a prototype to demonstrate conversions. Some of the challenges discussed were that the BIBFRAME data was not yet activated, was based on the 2013 vocabulary, and had no documentation. Next steps mentioned included synchronizing with BIBFRAME vocabulary version 1.0, expanding authority representations, and including the BIBFRAME data in regular data releases.
For the full video of this presentation, please visit: https://www.edge-ai-vision.com/2024/06/building-and-scaling-ai-applications-with-the-nx-ai-manager-a-presentation-from-network-optix/
Robin van Emden, Senior Director of Data Science at Network Optix, presents the “Building and Scaling AI Applications with the Nx AI Manager,” tutorial at the May 2024 Embedded Vision Summit.
In this presentation, van Emden covers the basics of scaling edge AI solutions using the Nx tool kit. He emphasizes the process of developing AI models and deploying them globally. He also showcases the conversion of AI models and the creation of effective edge AI pipelines, with a focus on pre-processing, model conversion, selecting the appropriate inference engine for the target hardware and post-processing.
van Emden shows how Nx can simplify the developer’s life and facilitate a rapid transition from concept to production-ready applications.He provides valuable insights into developing scalable and efficient edge AI solutions, with a strong focus on practical implementation.
The document discusses several MARC 21 fields that could potentially be used to represent open access and license information: Field 506 (Restrictions on Access Note), Field 540 (Terms Governing Use and Reproduction Note), Field 510 (Citation/References Note), Field 856 (Electronic Location and Access), and Field 912 (Designation of National Licenses and Digital Collections). It provides details on the definition, indicators, subfields, and usage of each field. It concludes by posing questions about which fields are currently used in practice for licensing, which fields are preferred, and whether any fields require changes to better represent licensing information.
Presentation given at the first meeting of the "LIBER MARC Harmonization Task Force" on January 14, 2002 in the German National Library in Frankfurt am Main
Presentation during the 2016 American Library Association (ALA) Annual Conference in Orlando (Florida), given at the ALCTS Program "Linked Data - Globally Connecting Libraries, Archives, and Museums", Sponsor: ALCTS International Relations Committee, Co-Sponsor: Linked Library Data Interest Group
Entitäten, Relationen und mehr - Erweiterungen in MARC 21 Authority durch di...Reinhold Heuvelmann
Präsentation gehalten von Daniela Trunk (Deutsche Nationalbibliothek) beim Normdatenanwendertreffen im Rahmen des 6. Bibliothekskongresses Leipzig 2016
Presentation given during a meeting at the German National Library, focussing on the distinction between cataloging and storage metadata formats vs. communication metadata formats, and on ways of providing provenance information.
BIBFRAME: Neues bibliografisches Datenformat, und noch viel mehr
Vortrag im Rahmen des Berliner Bibliothekswissenschaftlichen Kolloquiums, Institut für Bibliotheks- und Informationswissenschaft, Humboldt-Universität zu Berlin, am 2. Februar 2016
Die Bibliographic Framework Initiative "BIBFRAME" ist bereits einige Jahre "alt". Nach Planungen im Jahr 2011, nach Vertragsabschluss zwischen der LoC und der Firma Zepheira sowie Veröffentlichung des ersten Modellpapiers "Bibliographic Framework as a Web of Data" in 2012 folgten ein arbeitsintensives Jahr 2013, das unter Beteiligung der DNB von den Aktivitäten der Early Experimenters Group geprägt war, ein konsolidierendes Jahr 2014, in dem das bestehende Vokabular auf Praxistauglichkeit hin geprüft wurde, und ein Jahr 2015, in dem BIBFRAME mit unterschiedlichen Ansätzen (LC Pilot, Libhub.org, LD4L/LD4P) weiter vorangetrieben wurde.
In meinem Vortrag gehe ich der Frage nach, welchen Stellenwert die BIBFRAME-Initiative im Umfeld der Linked Library Data einnimmt. Wie verhalten sich BIBFRAME und andere existierende und neu entstehende Vokabularien zueinander? Sind RDA und BIBFRAME als Seiten derselben Medaille zu sehen? Welche Bezüge gibt es zu schema.org und den bibliothekarischen Erweiterungen dieses Vokabulars? Welche Rolle spielen in Zukunft noch die klassischen Datenformate, wie MARC 21 und seine Derivate? Was macht den Framework-Charakter der Initiative aus? Und: Welchen Beitrag kann die deutschsprachige Community bei der Diskussion und Entwicklung dieser Fragen weiterhin leisten?
https://www.ibi.hu-berlin.de/de/bbk
https://www.ibi.hu-berlin.de/de/bbk/abstracts/ws1516/heuvelmann
Die Bibliographic Framework Initiative "BIBFRAME" blickt jetzt auf drei Jahre zurück. Nach dem Abschluss des Vertrags zwischen der Library of Congress und der Firma Zepheira im Mai 2012 und nach der Veröffentlichung des ersten maßgeblichen Modellpapiers "Bibliographic Framework as a Web of Data: Linked Data Model and Supporting Services" im November 2012 folgten ein arbeitsintensives Jahr 2013, das unter Beteiligung der Deutschen Nationalbibliothek von den Aktivitäten der Early Experimenters / Early Implementers Group geprägt war, und ein konsolidierendes Jahr 2014, in dem das bestehende Vokabular auf Praxistauglichkeit hin geprüft wurde und ergänzende Initiativen, wie der "BIBFRAME Editor" und libhub.org, aufgesetzt wurden. Nun ist es Zeit zu fragen, was erreicht wurde und wie es weiter geht. In dem Vortrag soll beleuchtet werden, welchen Stellenwert die BIBFRAME-Initiative im Umfeld der Linked Library Data einnimmt, bisher, und besonders in den kommenden Jahren. Dabei soll die Frage untersucht werden, wie wichtig die Offenheit ist, die durch den Framework-Aspekt betont wird, im Gegensatz zu dem eher starren Standard bisheriger Prägung. Wie verhalten sich BIBFRAME und andere existierende und neu entstehende Vokabularien zueinander? Sind RDA und BIBFRAME als die beiden Seiten derselben Medaille zu sehen? Was hat es mit schema.org und den bibliothekarischen Erweiterungen dieses Vokabulars auf sich? Welche Rolle spielen in Zukunft noch die klassischen Datenformate, wie MARC 21 und seine Derivate? Und ganz wichtig: Welchen Beitrag kann die deutschsprachige Community bei der Diskussion und Entwicklung dieser Fragen weiterhin leisten?
Seit drei Jahren zieht die Bibliographic Framework Initiative "BIBFRAME" Aufmerksamkeit und Hoffnungen auf sich. Wie hat sich das Rahmenkonzept für künftige bibliografische Metadatenformate bisher entwickelt? Welche Aktivitäten gibt es bei den einstigen Early Experimenters, und darüber hinaus? Welche Ausprägungen gibt es? Wie gut passen RDA-Daten aus dem deutschsprachigen Raum zu BIBFRAME? Und wie verhalten sich BIBFRAME und andere existierende und neu entstehende Vokabularien zueinander?
Brief description of the way how libraries in German speaking countries intend to implement Content Type, Media Type and Carrier Type, according to RDA (Resource Description and Access)
Presentation given at the "Workshop für Systemanbieter" (Workshop for System Vendors) on October 23, 2014
The document discusses the development of BIBFRAME, a new bibliographic framework being developed as a replacement for MARC. It provides an overview of BIBFRAME, including its model and vocabulary, participating institutions, applications being developed, and future plans and challenges. Caveats about the transition are noted, such as concerns about the need for yet another new standard and changes to existing workflows. The future of linked library data is also speculated on.
Reinhold Heuvelmann from the German National Library presented on their work with BIBFRAME in 2013. This included learning about the BIBFRAME model and vocabulary, discussions on mapping their existing formats like Pica and MARC to BIBFRAME, and developing a prototype to demonstrate conversions. Some of the challenges discussed were that the BIBFRAME data was not yet activated, was based on the 2013 vocabulary, and had no documentation. Next steps mentioned included synchronizing with BIBFRAME vocabulary version 1.0, expanding authority representations, and including the BIBFRAME data in regular data releases.
For the full video of this presentation, please visit: https://www.edge-ai-vision.com/2024/06/building-and-scaling-ai-applications-with-the-nx-ai-manager-a-presentation-from-network-optix/
Robin van Emden, Senior Director of Data Science at Network Optix, presents the “Building and Scaling AI Applications with the Nx AI Manager,” tutorial at the May 2024 Embedded Vision Summit.
In this presentation, van Emden covers the basics of scaling edge AI solutions using the Nx tool kit. He emphasizes the process of developing AI models and deploying them globally. He also showcases the conversion of AI models and the creation of effective edge AI pipelines, with a focus on pre-processing, model conversion, selecting the appropriate inference engine for the target hardware and post-processing.
van Emden shows how Nx can simplify the developer’s life and facilitate a rapid transition from concept to production-ready applications.He provides valuable insights into developing scalable and efficient edge AI solutions, with a strong focus on practical implementation.
Ivanti’s Patch Tuesday breakdown goes beyond patching your applications and brings you the intelligence and guidance needed to prioritize where to focus your attention first. Catch early analysis on our Ivanti blog, then join industry expert Chris Goettl for the Patch Tuesday Webinar Event. There we’ll do a deep dive into each of the bulletins and give guidance on the risks associated with the newly-identified vulnerabilities.
Infrastructure Challenges in Scaling RAG with Custom AI modelsZilliz
Building Retrieval-Augmented Generation (RAG) systems with open-source and custom AI models is a complex task. This talk explores the challenges in productionizing RAG systems, including retrieval performance, response synthesis, and evaluation. We’ll discuss how to leverage open-source models like text embeddings, language models, and custom fine-tuned models to enhance RAG performance. Additionally, we’ll cover how BentoML can help orchestrate and scale these AI components efficiently, ensuring seamless deployment and management of RAG systems in the cloud.
Threats to mobile devices are more prevalent and increasing in scope and complexity. Users of mobile devices desire to take full advantage of the features
available on those devices, but many of the features provide convenience and capability but sacrifice security. This best practices guide outlines steps the users can take to better protect personal devices and information.
Best 20 SEO Techniques To Improve Website Visibility In SERPPixlogix Infotech
Boost your website's visibility with proven SEO techniques! Our latest blog dives into essential strategies to enhance your online presence, increase traffic, and rank higher on search engines. From keyword optimization to quality content creation, learn how to make your site stand out in the crowded digital landscape. Discover actionable tips and expert insights to elevate your SEO game.
Taking AI to the Next Level in Manufacturing.pdfssuserfac0301
Read Taking AI to the Next Level in Manufacturing to gain insights on AI adoption in the manufacturing industry, such as:
1. How quickly AI is being implemented in manufacturing.
2. Which barriers stand in the way of AI adoption.
3. How data quality and governance form the backbone of AI.
4. Organizational processes and structures that may inhibit effective AI adoption.
6. Ideas and approaches to help build your organization's AI strategy.
TrustArc Webinar - 2024 Global Privacy SurveyTrustArc
How does your privacy program stack up against your peers? What challenges are privacy teams tackling and prioritizing in 2024?
In the fifth annual Global Privacy Benchmarks Survey, we asked over 1,800 global privacy professionals and business executives to share their perspectives on the current state of privacy inside and outside of their organizations. This year’s report focused on emerging areas of importance for privacy and compliance professionals, including considerations and implications of Artificial Intelligence (AI) technologies, building brand trust, and different approaches for achieving higher privacy competence scores.
See how organizational priorities and strategic approaches to data security and privacy are evolving around the globe.
This webinar will review:
- The top 10 privacy insights from the fifth annual Global Privacy Benchmarks Survey
- The top challenges for privacy leaders, practitioners, and organizations in 2024
- Key themes to consider in developing and maintaining your privacy program
Building Production Ready Search Pipelines with Spark and MilvusZilliz
Spark is the widely used ETL tool for processing, indexing and ingesting data to serving stack for search. Milvus is the production-ready open-source vector database. In this talk we will show how to use Spark to process unstructured data to extract vector representations, and push the vectors to Milvus vector database for search serving.
Removing Uninteresting Bytes in Software FuzzingAftab Hussain
Imagine a world where software fuzzing, the process of mutating bytes in test seeds to uncover hidden and erroneous program behaviors, becomes faster and more effective. A lot depends on the initial seeds, which can significantly dictate the trajectory of a fuzzing campaign, particularly in terms of how long it takes to uncover interesting behaviour in your code. We introduce DIAR, a technique designed to speedup fuzzing campaigns by pinpointing and eliminating those uninteresting bytes in the seeds. Picture this: instead of wasting valuable resources on meaningless mutations in large, bloated seeds, DIAR removes the unnecessary bytes, streamlining the entire process.
In this work, we equipped AFL, a popular fuzzer, with DIAR and examined two critical Linux libraries -- Libxml's xmllint, a tool for parsing xml documents, and Binutil's readelf, an essential debugging and security analysis command-line tool used to display detailed information about ELF (Executable and Linkable Format). Our preliminary results show that AFL+DIAR does not only discover new paths more quickly but also achieves higher coverage overall. This work thus showcases how starting with lean and optimized seeds can lead to faster, more comprehensive fuzzing campaigns -- and DIAR helps you find such seeds.
- These are slides of the talk given at IEEE International Conference on Software Testing Verification and Validation Workshop, ICSTW 2022.
Have you ever been confused by the myriad of choices offered by AWS for hosting a website or an API?
Lambda, Elastic Beanstalk, Lightsail, Amplify, S3 (and more!) can each host websites + APIs. But which one should we choose?
Which one is cheapest? Which one is fastest? Which one will scale to meet our needs?
Join me in this session as we dive into each AWS hosting service to determine which one is best for your scenario and explain why!
Programming Foundation Models with DSPy - Meetup SlidesZilliz
Prompting language models is hard, while programming language models is easy. In this talk, I will discuss the state-of-the-art framework DSPy for programming foundation models with its powerful optimizers and runtime constraint system.
GraphRAG for Life Science to increase LLM accuracyTomaz Bratanic
GraphRAG for life science domain, where you retriever information from biomedical knowledge graphs using LLMs to increase the accuracy and performance of generated answers
Your One-Stop Shop for Python Success: Top 10 US Python Development Providersakankshawande
Simplify your search for a reliable Python development partner! This list presents the top 10 trusted US providers offering comprehensive Python development services, ensuring your project's success from conception to completion.
Fueling AI with Great Data with Airbyte WebinarZilliz
This talk will focus on how to collect data from a variety of sources, leveraging this data for RAG and other GenAI use cases, and finally charting your course to productionalization.
3. | 5 | DNB Linking and Expanding Data | LD4L Workshop | February 20153
Example
021A
$x001$9359285066
$7Tp1$Vpiz$Agnd$011862119X$E1681$B1767
$aTelemann$dGeorg Philipp$7Tu1$Vwim$Agnd
$0300321805$aQuartette$mFl$mVl$mVagb$mBc
$hAusw. Arr.$j300321805$Y6 Pariser Quartette
$hGeorg Philipp Telemann. Hrsg. von Johannes
Bornmann. Continuo-Aussetzung von Wiebke
Weidanz$pSchönaich$JBornmann$S785.14$gMcxm
cf. http://d-nb.info/359285074
4. | 5 | DNB Linking and Expanding Data | LD4L Workshop | February 20154
Mapping & Converting
5. | 5 | DNB Linking and Expanding Data | LD4L Workshop | February 20155
Thank you
http://www.heuvelmann.de/2015-02-23_DNB_Linking_Example_PICA.pdf
http://www.heuvelmann.de/2015-02-23_DNB_Linking_Example_MARC.pdf
r.heuvelmann@dnb.de