Intervention de Nigel Robinson, Director, Content Managment chez Thomson Reuters au Forum du GFII 2015 : http://forum.gfii.fr/forum/les-nouvelles-mesures-de-l-influence-scientifique-l-apport-des-metriques-alternatives-au-pilotage-de-la-recherche
In this talk we describe how the Fourth Paradigm for Data-Intensive Research is providing a framework for us to develop tools, technologies and platforms to support actionable science. We discuss applications that take advantage of cloud computing, particularly Microsoft Azure, to realise the potential for turning data into decisions, knowledge and understanding. http://www.fourthpardigm.org and http://www.azure4research.com
2016 07 12_purdue_bigdatainomics_seandavisSean Davis
Newer, faster, cheaper molecular assays are driving biomedical research. I discuss the history of biomedical data including concepts of data sharing, hypothesis-driven vs generating research, and the potential to expand our thinking on biomedical research to be much more integrated through smart, creative, and open use of technologies and more flexible, longitudinal studies.
Jonathan Tedds Distinguished Lecture at DLab, UC Berkeley, 12 Sep 2013: "The ...Jonathan Tedds
http://dlab.berkeley.edu/event/open-research-challenge-peer-review-and-publication-research-data
A talk by Dr. Jonathan Tedds, Senior Research Fellow, D2K Data to Knowledge, Dept of Health Sciences, University of Leicester.
PI: #BRISSKit www.brisskit.le.ac.uk
PI: #PREPARDE www.le.ac.uk/projects/preparde
The Peer REview for Publication & Accreditation of Research data in the Earth sciences (PREPARDE) project seeks to capture the processes and procedures required to publish a scientific dataset, ranging from ingestion into a data repository, through to formal publication in a data journal. It will also address key issues arising in the data publication paradigm, namely, how does one peer-review a dataset, what criteria are needed for a repository to be considered objectively trustworthy, and how can datasets and journal publications be effectively cross-linked for the benefit of the wider research community.
I will discuss this and alternative approaches to research data management and publishing through examples in astronomy, biomedical and interdisciplinary research including the arts and humanities. Who can help in the long tail of research if lacking established data centers, archives or adequate institutional support? How much can we transfer from the so called “big data” sciences to other settings and where does the institution fit in with all this? What about software?
Publishing research data brings a wide and differing range of challenges for all involved, whatever the discipline. In PREPARDE we also considered the pre and post publication peer review paradigm, as implemented in the F1000 Research Publishing Model for the life sciences. Finally, in an era of truly international research how might we coordinate the many institutional, regional, national and international initiatives – has the time come for an international Research Data Alliance?
ANDS Applications Program: Building Tools to Facilitate Data ReuseAndrew Treloar
Presentation accompanying talk on the ANDS Applications program at IDCC 2016. Discusses the outputs of the program, but also focusses on issues of sustainability of such eresearch tools
In this talk we describe how the Fourth Paradigm for Data-Intensive Research is providing a framework for us to develop tools, technologies and platforms to support actionable science. We discuss applications that take advantage of cloud computing, particularly Microsoft Azure, to realise the potential for turning data into decisions, knowledge and understanding. http://www.fourthpardigm.org and http://www.azure4research.com
2016 07 12_purdue_bigdatainomics_seandavisSean Davis
Newer, faster, cheaper molecular assays are driving biomedical research. I discuss the history of biomedical data including concepts of data sharing, hypothesis-driven vs generating research, and the potential to expand our thinking on biomedical research to be much more integrated through smart, creative, and open use of technologies and more flexible, longitudinal studies.
Jonathan Tedds Distinguished Lecture at DLab, UC Berkeley, 12 Sep 2013: "The ...Jonathan Tedds
http://dlab.berkeley.edu/event/open-research-challenge-peer-review-and-publication-research-data
A talk by Dr. Jonathan Tedds, Senior Research Fellow, D2K Data to Knowledge, Dept of Health Sciences, University of Leicester.
PI: #BRISSKit www.brisskit.le.ac.uk
PI: #PREPARDE www.le.ac.uk/projects/preparde
The Peer REview for Publication & Accreditation of Research data in the Earth sciences (PREPARDE) project seeks to capture the processes and procedures required to publish a scientific dataset, ranging from ingestion into a data repository, through to formal publication in a data journal. It will also address key issues arising in the data publication paradigm, namely, how does one peer-review a dataset, what criteria are needed for a repository to be considered objectively trustworthy, and how can datasets and journal publications be effectively cross-linked for the benefit of the wider research community.
I will discuss this and alternative approaches to research data management and publishing through examples in astronomy, biomedical and interdisciplinary research including the arts and humanities. Who can help in the long tail of research if lacking established data centers, archives or adequate institutional support? How much can we transfer from the so called “big data” sciences to other settings and where does the institution fit in with all this? What about software?
Publishing research data brings a wide and differing range of challenges for all involved, whatever the discipline. In PREPARDE we also considered the pre and post publication peer review paradigm, as implemented in the F1000 Research Publishing Model for the life sciences. Finally, in an era of truly international research how might we coordinate the many institutional, regional, national and international initiatives – has the time come for an international Research Data Alliance?
ANDS Applications Program: Building Tools to Facilitate Data ReuseAndrew Treloar
Presentation accompanying talk on the ANDS Applications program at IDCC 2016. Discusses the outputs of the program, but also focusses on issues of sustainability of such eresearch tools
Winning the Tour de France, Research Data and Data StewardshipAlastair Dunning
Presentation to Sport Data Valley given at TU Delft Library meeting on value of Data Stewardship and Curation for those working with data from elite and public sport
May 2016
Presented at the Research Support Community Day by Natasha Simons (Program Leader for Skills, Policy and Resources, Australian National Data Service)
An increasing number of scholarly publishers and journals are implementing policies and procedures that require published articles to be accompanied by the underlying research data. These policies are an important part of the shift toward reproducible research and have been shown to influence researchers’ willingness to share research data to varying extents. However journal data availability policies are highly idiosyncratic, vary in strength from encouraging to mandating data sharing, and are often difficult to interpret. This makes it challenging for researchers to comply, editors to introduce and research support staff to assist. This presentation examined why and how more scholarly publishers/journals are introducing data availability policies and explore the differences in journal data sharing policies, referring to examples. It outlined the challenges of current data policies, what is expected of various stakeholders, and reflect on efforts in Australia to engage stakeholders in conversation to improve data policies including 2017 Social Sciences and Health and Medical roundtables. It concluded with an update on international collaborations that are helping to facilitate wider adoption of clear, consistent policies for publishing research data.
Developing data services: a tale from two Oregon universitiesAmanda Whitmire
While the generation or collection of large, complex research datasets is becoming easier and less expensive all the time, researchers often lack the knowledge and skills that are necessary to properly manage them. Having these skills is paramount in ensuring data quality, integrity, discoverability, integration, reproducibility, and reuse over time. Librarians have been preserving, managing and disseminating information for thousands of years. As scholarly research is increasingly carried out digitally, and products of research have expanded from primarily text-based manuscripts to include datasets, metadata, maps, software code etc., it is a natural expansion of scope for libraries to be involved in the stewardship of these materials as well. This kind of evolution requires that libraries bring in faculty with new skills and collaborate more intimately with researchers during the research data lifecycle, and this is exactly what is happening in academic libraries across the country. In this webinar, two researchers-turned-data-specialists, both based in academic libraries, will share their experiences and perspectives on the development of research data services at their respective institutions. Each will share their perspective on the important role that libraries can play in helping researchers manage, preserve, and share their data.
OSFair2017 Training | Increasing Research Transparency using the Open Science...Open Science Fair
Jennifer Freeman Smith talks about increasing research transparency using the Open Science Framework | OSFair2017 Workshop
Workshop title: Increasing Research Transparency using the Open Science Framework
Workshop overview:
Part of the challenge with making research more open and transparent is purely logistical. Where and how can the research be stored, organized, and shared most effectively when there are so many different tools, processes and policies in place? The OSF provides an open source, structured environment where researchers from all over the world, using their own tools and processes, can collaborate openly, transparently, and effectively.
DAY 3 PARALLEL SESSION 8
The State of Open Data Report by @figshare.
A selection of analyses and articles about open data, curated by Figshare
Foreword by Professor Sir Nigel Shadbolt
OCTOBER 2016
Lesson 8 in a set of 10 created by DataONE on Best Practices for Data Management. The full module can be downloaded from the DataONE.org website at: http://www.dataone.org/educaiton-modules. Released under a CC0 license, attribution and citation requested.
Winning the Tour de France, Research Data and Data StewardshipAlastair Dunning
Presentation to Sport Data Valley given at TU Delft Library meeting on value of Data Stewardship and Curation for those working with data from elite and public sport
May 2016
Presented at the Research Support Community Day by Natasha Simons (Program Leader for Skills, Policy and Resources, Australian National Data Service)
An increasing number of scholarly publishers and journals are implementing policies and procedures that require published articles to be accompanied by the underlying research data. These policies are an important part of the shift toward reproducible research and have been shown to influence researchers’ willingness to share research data to varying extents. However journal data availability policies are highly idiosyncratic, vary in strength from encouraging to mandating data sharing, and are often difficult to interpret. This makes it challenging for researchers to comply, editors to introduce and research support staff to assist. This presentation examined why and how more scholarly publishers/journals are introducing data availability policies and explore the differences in journal data sharing policies, referring to examples. It outlined the challenges of current data policies, what is expected of various stakeholders, and reflect on efforts in Australia to engage stakeholders in conversation to improve data policies including 2017 Social Sciences and Health and Medical roundtables. It concluded with an update on international collaborations that are helping to facilitate wider adoption of clear, consistent policies for publishing research data.
Developing data services: a tale from two Oregon universitiesAmanda Whitmire
While the generation or collection of large, complex research datasets is becoming easier and less expensive all the time, researchers often lack the knowledge and skills that are necessary to properly manage them. Having these skills is paramount in ensuring data quality, integrity, discoverability, integration, reproducibility, and reuse over time. Librarians have been preserving, managing and disseminating information for thousands of years. As scholarly research is increasingly carried out digitally, and products of research have expanded from primarily text-based manuscripts to include datasets, metadata, maps, software code etc., it is a natural expansion of scope for libraries to be involved in the stewardship of these materials as well. This kind of evolution requires that libraries bring in faculty with new skills and collaborate more intimately with researchers during the research data lifecycle, and this is exactly what is happening in academic libraries across the country. In this webinar, two researchers-turned-data-specialists, both based in academic libraries, will share their experiences and perspectives on the development of research data services at their respective institutions. Each will share their perspective on the important role that libraries can play in helping researchers manage, preserve, and share their data.
OSFair2017 Training | Increasing Research Transparency using the Open Science...Open Science Fair
Jennifer Freeman Smith talks about increasing research transparency using the Open Science Framework | OSFair2017 Workshop
Workshop title: Increasing Research Transparency using the Open Science Framework
Workshop overview:
Part of the challenge with making research more open and transparent is purely logistical. Where and how can the research be stored, organized, and shared most effectively when there are so many different tools, processes and policies in place? The OSF provides an open source, structured environment where researchers from all over the world, using their own tools and processes, can collaborate openly, transparently, and effectively.
DAY 3 PARALLEL SESSION 8
The State of Open Data Report by @figshare.
A selection of analyses and articles about open data, curated by Figshare
Foreword by Professor Sir Nigel Shadbolt
OCTOBER 2016
Lesson 8 in a set of 10 created by DataONE on Best Practices for Data Management. The full module can be downloaded from the DataONE.org website at: http://www.dataone.org/educaiton-modules. Released under a CC0 license, attribution and citation requested.
Research Data Sharing and Re-Use: Practical Implications for Data Citation Pr...SC CTSI at USC and CHLA
Date: Apr 4, 2018
Speaker: Hyoungjoo Park, PhD candidate, School of Information Studies, University of Wisconsin-Milwaukee, and Dietmar Wolfram, PhD
Overview: It is increasingly common for researchers to make their data freely available. This is often a requirement of funding agencies but also consistent with the principles of open science, according to which all research data should be shared and made available for reuse. Once data is reused, the researchers who have provided access to it should be acknowledged for their contributions, much as authors are recognised for their publications through citation. Hyoungjoo Park and Dietmar Wolfram have studied characteristics of data sharing, reuse, and citation and found that current data citation practices do not yet benefit data sharers, with little or no consistency in their format. More formalised citation practices might encourage more authors to make their data available for reuse.
Data Management for Research (New Faculty Orientation)aaroncollie
Situates research data management as a contingency that should be addressed and provisioned for during planning and research design. Draws out fundamental practices for file management, data description, and enumerates storage decision points.
FAIR for the future: embracing all things dataARDC
FAIR for the future: embracing all things data - Natasha Simons, Keith Russell and Liz Stokes, presented at Taylor & Francis Scholarly Summits in Sydney 11 Feb 2019 and Melbourne 14 Feb 2019.
Lesson 2 in a set of 10 created by DataONE on Best Practices fo Data Management. The full module can be downloaded from the DataONE.org website at: http://www.dataone.org/educaiton-modules. Released under a CC0 license, attribution and citation requested.
The fourth paradigm: data intensive scientific discovery - Jisc Digifest 2016Jisc
There is broad recognition within the scientific community that the emerging data deluge will fundamentally alter disciplines in areas throughout academic research. A wide variety of researchers - from scientists and engineers to social scientists and humanities researchers - will require tools, technologies, and platforms that seamlessly integrate into standard scientific methodologies and processes.
'The fourth paradigm' refers to the data management techniques and the computational systems needed to manipulate, visualize, and manage large amounts of research data. This talk will illustrate the challenges researchers will face, the opportunities these changes will afford, and the resulting implications for data-intensive researchers.
In addition, the talk will review the global movement towards open access, research repositories and open science and the importance of curation of digital data. The talk concludes with some comments on the research requirements for campus e-infrastructure and the end-to-end performance of the network.
KB Crawl SAS : Transformer l'information en Smart DataLe_GFII
Intervention d'Eric Bertoletti, Responsable du Business Développement, KB Crawl SAS au Forum du GFII 2015 : http://forum.gfii.fr/forum/actu-du-secteur-kb-crawl
La Centrale des Marchés : des services B2B pour accompagner la croissance des...Le_GFII
Intervention de Stéphan Minard, directeur de la Centrale des Marchés, au Forum du GFII 2015 : http://forum.gfii.fr/forum/open-access-open-data-et-loi-s-numerique-s-quelles-evolutions-du-cadre-legal
Accessible.net : l'accessibilité pour tous, partout et en un clicLe_GFII
Intervention de François-Xavier Bois, Directeur de la R&D Kernix Lab au Forum du GFII 2015 : http://forum.gfii.fr/forum/open-access-open-data-et-loi-s-numerique-s-quelles-evolutions-du-cadre-legal
Algorithmes et data-sciences : approches et limites pour le traitement du lan...Le_GFII
Intervention d'Eric de la Clergerie, chargé de recherche en TAL, Inria : http://forum.gfii.fr/forum/humains-et-algorithmes-l-impact-des-robots-sur-la-production-de-connaissance-et-l-aide-a-la-decision
CommoPrices : le portail des prix des matières premièresLe_GFII
Intervention de Martin Gross, fondateur de CommPrices au Forum du GFII 2015 : http://forum.gfii.fr/forum/open-access-open-data-et-loi-s-numerique-s-quelles-evolutions-du-cadre-legal
Intervention de Mathieu Caps, responsable Relations Institutionnelles au Forum du GFII 2015 : http://forum.gfii.fr/forum/open-data-plateformes-et-territoires-quels-initiatives-et-quels-services-pour-moderniser-l-action-publique
Intervention d'Anne Catherine Rota, Spécialiste en Research Intelligence chez Elsevier au Forum du GFII 2015 : http://forum.gfii.fr/forum/les-nouvelles-mesures-de-l-influence-scientifique-l-apport-des-metriques-alternatives-au-pilotage-de-la-recherche
Text Mining et enrichissement sémantique de contenus : retour d'expérience du...Le_GFII
Intervention de Michel Le Nouy, directeur de projets informatiques « Contenus et données » chez Ouest-France au Forum du GFII 2015 : http://forum.gfii.fr/forum/fouille-de-texte-fouille-de-donnees-un-nouveau-paradigme-panorama-des-usages-exploratoires-du-tdm
Open Mining Infratsructure for TExt & Data : une infrastructure text-mining a...Le_GFII
Intervention de Patricia Geretto, ingénierie de l'information - TAL à la DVIST INRA. Forum du GFII les 8 & 9 dec 2015.
OpenMinTeD, projet Horizon 2020, a pour objectif de créer une infrastructure facilitant l'usage des ressources et des outils de text-mining pour les communautés scientifiques. Cette plateforme ouverte et pérenne permettra aux chercheurs de découvrir, créer, partager et ré-utiliser la connaissance extraite d’un vaste éventail de sources de la littérature scientifique. Des cas d'usage sont identifiés et développés par des experts de différents domaines. L'Institut National de la Recherche Agronomique (INRA) participe pour sa part aux cas d'usage en agronomie.
Scopus & SciVal au service du pilotage de la recherche scientifique - Elsevie...Le_GFII
Intervention de :
Anne Catherine Rota, Responsable Relations Institutionnelles, Elsevier
Valérie Thiel, Regional Director Research Intelligence - Europe, Elsevier
Sandrine Royer Devaux, Médiathèque Scientifique, Institut Pasteur
Journée d'étude du GFII : Les nouvelles formes de l’Intelligence Economique pour la recherche, jeudi 5 mars 2015
Abstract : Scopus & SciVal au service du pilotage de la recherche scientifique - Avec le retour d'expérience de l'Institut Pasteur
- Comprendre ses domaines de recherche stratégiques
- Positionner son institution et ses unités de recherche sur la scène internationale pour soutenir leur développement
Source : http://www.gfii.fr/fr/document/les-nouvelles-formes-de-l-intelligence-economique-pour-la-recherche-presentations
Veille stratégique : du portail thématique à la gestion de flux - La démarch...Le_GFII
Intervention de Rémi Kasprik, Chargé de veille, IFP Énergies Nouvelles (Ifpen) et Bruno Etienne, Dirigeant, KB Crawl.
Journée d'étude du GFII : Les nouvelles formes de l’Intelligence Économique pour la recherche scientifique, 5 mars 2015, Paris.
Abstract : Orientée vers les nouvelles technologies de l'énergie, la stratégie IFPEN se base conjointement sur ses centres d’intérêts traditionnels et sur des axes de recherche stratégiques nouveaux, sur lesquels son positionnement est fortement lié à sa capacité d’innovation. Dans ce contexte, un apport d'information structurée, différenciée et adaptée aux besoins des différentes entités (Projets, Business Units, Directions transverses), est essentiel. Le Département « Veille Technologie & Marché » qui travaille à fournir ces informations, a pour cela mis en œuvre depuis 5 ans, des espaces thématiques de Veille sur l’intranet. Fort de ce retour d’expérience, le Département envisage à présent l’étape suivante, sous la forme d’une solution de veille « en flux », plus globale, mieux automatisée et orientée client, qui permettra de multiplier les interactions et d’enrichir les connaissances, pour favoriser l’innovation.
Source : http://www.gfii.fr/fr/document/les-nouvelles-formes-de-l-intelligence-economique-pour-la-recherche-presentations
L'Intelligence Technologique comme composante du pilotage scientifique de l'U...Le_GFII
Intervention de Mathieu Bécue – GREThA UMR CNRS 5113 Université de Bordeaux – Responsable opérationnel de la plateforme Via Inno
David Virapin - GREThA UMR CNRS 5113 Université de Bordeaux – Ingénieur d’études de la plateforme Via Inno
Abstract : L’enseignement supérieur et la recherche prend une place déterminante dans les trajectoires de développement économique des nations dans un contexte singulier ou l’innovation constitue un moteur formidable de croissance. L’Université de Bordeaux et ses partenaires (organismes de recherche et écoles) entendent répondre à cet enjeu en structurant un « campus d’excellence » au rayonnement international. Cette structuration passe par la mise en place de projets ambitieux d’investissements sur des priorités stratégiques. Comment dès lors l’intelligence Technologique peut participer de ce ciblage ? Cette activité d’Intelligence Technologique est au cœur de nombreux travaux de recherche et de valorisation au sein du Groupe de Recherche en Economie Théorique et Appliquée (GREThA UMR CNRS 5113) et de sa plateforme Via Inno. Ce temps de parole permettra de présenter une partie des résultats issus de cette activité de construction de méthodes et d'indicateurs d'intelligence technologique, et la manière dont elle peut « nourrir » les réflexions présidant aux activités de pilotage stratégique de l'établissement.
Source : http://www.gfii.fr/fr/document/les-nouvelles-formes-de-l-intelligence-economique-pour-la-recherche-presentations
La veille au service de la stratégie de l'InraLe_GFII
Intervention de Marie-Colette Faure et Caroline Falize, co-animatrices du pôle veille de l’INRA.
Abstract : Depuis plus de 5 ans, le pôle veille de l’INRA assure le déploiement de la veille stratégique et de l'IE au sein de l'Institut, procure un soutien personnalisé aux responsables de projets de veille et favorise une organisation en réseau des professionnels de l'IST investis dans la veille. L’intervention de Marie-Colette Faure et Caroline Falize précisera à quels enjeux répond la veille pour l'INRA, décrira l'organisation mise en place et offrira des éléments de bilans et perspectives.
Source : http://www.gfii.fr/fr/document/les-nouvelles-formes-de-l-intelligence-economique-pour-la-recherche-presentations
La maîtrise des risques et l'intelligence économique au CEA - Frédéric MariotteLe_GFII
Intervention de Frédéric Mariotte, directeur adjoint central de la sécurité, en charge de la coordination de l’IE au CEA
Journée d'étude du GFII : Les nouvelles formes de l’Intelligence Economique pour la recherche scientifique
Absctract : Depuis 2009, l’Etat met en œuvre une « politique publique d’intelligence économique » au sein de laquelle la Recherche occupe une place essentielle. En tant qu’établissement public de Recherche, le CEA doit s’inscrire dans cette démarche et la formaliser en interne. L’excellence de sa recherche amont, son implication forte dans le tissu industriel et sa recherche appliquée dans des secteurs de souveraineté ont conduit depuis longtemps le CEA à mettre en œuvre des bonnes pratiques dans ce domaine de l’intelligence économique (IE). Pour identifier ses menaces, y compris celles liées à l’IE, le CEA a, depuis de nombreuses années, réalisé la cartographie de ses risques. Cette cartographie permet d’avoir une vision claire des principaux risques, de leurs sources potentielles, de leurs principales conséquences et des mesures mis en place (ou à mettre en place) pour les prévenir et limiter leur impact. Dans un premier temps, la présentation décrira la méthodologie de réalisation de la cartographie des risques du CEA et montrera comment elle apporte des éléments concrets à la gestion des risques liés à l’IE. La suite de l’exposé portera sur les actions que le CEA mène en termes d’IE (protection et maîtrise de l’information, veille stratégique, publications, valorisation, engagement dans des projets et structures internationaux, normalisation, communication de crise…) et sur des recommandations IE en cours de déploiement au CEA.
Source : http://www.gfii.fr/fr/document/les-nouvelles-formes-de-l-intelligence-economique-pour-la-recherche-presentations
Comment Coyote Systems utilse le Data Science Studio de Dataiku pour optimise...Le_GFII
Intervention de Hugo Le Squeren, Sales Engineer chez Dataiku et Florian Servaux, Chef de projet chez Coyote.
Séminaire DIXIT : Les nouvelles frontières de la « data intelligence » : content analytics, machine-learning, prédictif
Abstract : omme dans les activités TELECOM, le modèle COYOTE est basé sur l’abonnement. À ce titre, la fidélisation du parc d’abonnés est un facteur clé de succès. Afin d’optimiser ses actions de fidélisation et d’accroître la connaissance client, COYOTE en partenariat avec DATAIKU, a croisé les différentes sources de données à sa disposition. Il en résulte des analyses prédictives sur le comportement client.
Source : http://www.gfii.fr/fr/document/seminaire-dixit-les-nouvelles-frontieres-de-la-data-intelligence-content-analytics-machine-learning-predictif
L'analytics dans le sport - Mieux vivre les matchs de tennis grâce à l'analyt...Le_GFII
Intervention de Claire Herrenschmidt, Responsable des Partenariats Sportifs (Roland-Garros, Evian Championship), IBM
Séminaire DIXIT du GFII : Les nouvelles frontières de la « data intelligence » : content analytics, machine-learning, prédictif, le 13 avril 2015 à Paris.
Abstract : Avec l’explosion des données disponibles sur les médias sociaux (social data), sur les réseaux de capteurs (machine data) et dans les très grandes bases de données (big data), l’enjeu pour le « knowledge worker » - qu’il soit analyste, veilleur, ou chargé d’étude - n’est plus de surveiller des sources d’informations toujours plus massives, complexes et dynamiques mais de les analyser en profondeur pour pouvoir les manipuler et en extraire de la valeur, sous la forme d'insights et d'indicateurs décisionnels.
Mais mettre en œuvre une « stratégie data » pertinente implique, d’un point de vue technologique, de décloisonner les silos, de connecter des sources, des applications et des workflows auparavant séparés. Les nouvelles approches (linguistiques, sémantiques, statistiques, prédictives, auto-apprentissage, deep-learning, etc.) doivent être combinées pour homogénéiser des sources avec des niveaux de structuration très différents.
Cela implique également, d’un point de vue organisationnel, d’acquérir de nouvelles compétences en "data sciences" et de refondre certains process liés au traitement des données pour une meilleure articulation entre les métiers. La veille, l’analyse et la business intelligence converge ainsi progressivement dans la « data intelligence ». Si les métiers de chacun diffèrent encore, des problématiques communes émergent pour franchir cette étape. Mais au-delà des enjeux de R&D, il faut aujourd’hui démystifier les technologies et exposer les usages innovants pour en illustrer concrètement la valeur.
Statistique, sémantique, linguistique, machine-learning, indexation haute performance, visualisation temps-réel, API prédictives ... ce séminaire illustrera ce que les nouvelles approches Big Data apportent à la "data intelligence" à travers des retours d'expériences concrets en Social Media Intelligence et en Business Intelligence.
Source : http://www.gfii.fr/fr/document/seminaire-dixit-les-nouvelles-frontieres-de-la-data-intelligence-content-analytics-machine-learning-predictif
Retour d'expérience de Sendinblue sur Logmatic.io, solutions d'analyse de log...Le_GFII
Intervention de Amirhossein Malekzadeh, PDG - cofondateur, Focusmatic et Armand Thiberge, Président, Sendinblue.
Séminaire DIXIT du GFII : Les nouvelles frontières de la « data intelligence » : content analytics, machine-learning, prédictif - lundi 13 avril 2015, Paris.
Abstract : Avec l’explosion des données disponibles sur les médias sociaux (social data), sur les réseaux de capteurs (machine data) et dans les très grandes bases de données (big data), l’enjeu pour le « knowledge worker » - qu’il soit analyste, veilleur, ou chargé d’étude - n’est plus de surveiller des sources d’informations toujours plus massives, complexes et dynamiques mais de les analyser en profondeur pour pouvoir les manipuler et en extraire de la valeur, sous la forme d'insights et d'indicateurs décisionnels.
Mais mettre en œuvre une « stratégie data » pertinente implique, d’un point de vue technologique, de décloisonner les silos, de connecter des sources, des applications et des workflows auparavant séparés. Les nouvelles approches (linguistiques, sémantiques, statistiques, prédictives, auto-apprentissage, deep-learning, etc.) doivent être combinées pour homogénéiser des sources avec des niveaux de structuration très différents.
Cela implique également, d’un point de vue organisationnel, d’acquérir de nouvelles compétences en "data sciences" et de refondre certains process liés au traitement des données pour une meilleure articulation entre les métiers. La veille, l’analyse et la business intelligence converge ainsi progressivement dans la « data intelligence ». Si les métiers de chacun diffèrent encore, des problématiques communes émergent pour franchir cette étape. Mais au-delà des enjeux de R&D, il faut aujourd’hui démystifier les technologies et exposer les usages innovants pour en illustrer concrètement la valeur.
Statistique, sémantique, linguistique, machine-learning, indexation haute performance, visualisation temps-réel, API prédictives ... ce séminaire illustrera ce que les nouvelles approches Big Data apportent à la "data intelligence" à travers des retours d'expériences concrets en Social Media Intelligence et en Business Intelligence.
Une veille intelligente dans un monde global - Proxem - Séminaire DIXIT du GF...Le_GFII
Intervention de François Régis Chaumartin, Dirigeant, Proxem et Claude Fauconnet, chef de projet innovation numérique, Total
Séminaire DIXIT du GFII : Les nouvelles frontières de la « data intelligence » : content analytics, machine-learning, prédictif, 13 avril 2015, Paris.
Abstract : Dans un monde globalisé, les fonds documentaires sont loin d’être tous en français ou en anglais, et nécessitent pour être exploités de dépasser la barrière des langues. Claude Fauconnet (Total) et François-Régis Chaumartin (Proxem) présenteront la démarche pour effectuer une collecte multilingue sur le web et une analyse sémantique des Big data textuelles. Nous verrons avec des illustrations provenant de retours d’expériences concrets, comment analyser un ensemble de marchés, de thématiques, d’articles de presse et de technologies rapidement et dans la plupart des langues existantes.
Source : http://www.gfii.fr/fr/document/seminaire-dixit-les-nouvelles-frontieres-de-la-data-intelligence-content-analytics-machine-learning-predictif
Retour d'expérience du groupe Les Echos sur la mise en place d'un workflow mu...Le_GFII
Intervention de Jean Charles Falloux, CTO, groupe Les Echos au Forum du GFII le 09/12/14.
Atelier : "Digital Publishing : l'impact d'une stratégie multicanale sur le modèle éditorial, organisationnel et économique des producteurs d'information"
Abstract : Les producteurs d’information intègrent progressivement la dimension « multicanal » dans leurs stratégies éditoriales pour valoriser leur marque et en élargir l’audience à travers les différents canaux disponibles : papier, web, smartphones et tablettes, média sociaux, mailings, etc.
L’approche « multicanal » permet d’abaisser les coûts de développement multi-supports en unifiant le workflow éditorial grâce à un principe de saisie unique sur une interface centralisée. Les technologies sont désormais matures grâce à la diffusion du format HTML5. Des problématiques techniques persistent autour de l’interopérabilité des formats et de l’intégration de ces plateformes dans les systèmes d’information, mais les freins à la diffusion semblent désormais davantage organisationnels et économiques.
Trop souvent réduits à un projet d’équipement ou de communication, le déploiement d’une plateforme « multicanal » est un projet transversal touchant toutes les composantes de l’organisation. Les process établis doivent être remis à plat pour faciliter le formatage des contenus originaux dans de multiples déclinaisons. Les pôles éditoriaux doivent apprendre à travailler étroitement avec les fonctions marketing et communication pour concevoir des contenus adaptés au canal de diffusion. La monétisation des contenus est aussi au centre des enjeux. Développer une stratégie « multicanal » est indissociable de la réflexion sur le modèle économique.
Cet atelier proposera des retours d’expériences de producteurs d’information B2B et B2C ayant engagé une démarche de publication « multicanal ».
Source : http://forum.gfii.fr/forum/digital-publishing-les-plateformes-de-publication-multicanal
Multi-cluster Kubernetes Networking- Patterns, Projects and GuidelinesSanjeev Rampal
Talk presented at Kubernetes Community Day, New York, May 2024.
Technical summary of Multi-Cluster Kubernetes Networking architectures with focus on 4 key topics.
1) Key patterns for Multi-cluster architectures
2) Architectural comparison of several OSS/ CNCF projects to address these patterns
3) Evolution trends for the APIs of these projects
4) Some design recommendations & guidelines for adopting/ deploying these solutions.
This 7-second Brain Wave Ritual Attracts Money To You.!nirahealhty
Discover the power of a simple 7-second brain wave ritual that can attract wealth and abundance into your life. By tapping into specific brain frequencies, this technique helps you manifest financial success effortlessly. Ready to transform your financial future? Try this powerful ritual and start attracting money today!
1.Wireless Communication System_Wireless communication is a broad term that i...JeyaPerumal1
Wireless communication involves the transmission of information over a distance without the help of wires, cables or any other forms of electrical conductors.
Wireless communication is a broad term that incorporates all procedures and forms of connecting and communicating between two or more devices using a wireless signal through wireless communication technologies and devices.
Features of Wireless Communication
The evolution of wireless technology has brought many advancements with its effective features.
The transmitted distance can be anywhere between a few meters (for example, a television's remote control) and thousands of kilometers (for example, radio communication).
Wireless communication can be used for cellular telephony, wireless access to the internet, wireless home networking, and so on.
APNIC Foundation, presented by Ellisha Heppner at the PNG DNS Forum 2024APNIC
Ellisha Heppner, Grant Management Lead, presented an update on APNIC Foundation to the PNG DNS Forum held from 6 to 10 May, 2024 in Port Moresby, Papua New Guinea.
# Internet Security: Safeguarding Your Digital World
In the contemporary digital age, the internet is a cornerstone of our daily lives. It connects us to vast amounts of information, provides platforms for communication, enables commerce, and offers endless entertainment. However, with these conveniences come significant security challenges. Internet security is essential to protect our digital identities, sensitive data, and overall online experience. This comprehensive guide explores the multifaceted world of internet security, providing insights into its importance, common threats, and effective strategies to safeguard your digital world.
## Understanding Internet Security
Internet security encompasses the measures and protocols used to protect information, devices, and networks from unauthorized access, attacks, and damage. It involves a wide range of practices designed to safeguard data confidentiality, integrity, and availability. Effective internet security is crucial for individuals, businesses, and governments alike, as cyber threats continue to evolve in complexity and scale.
### Key Components of Internet Security
1. **Confidentiality**: Ensuring that information is accessible only to those authorized to access it.
2. **Integrity**: Protecting information from being altered or tampered with by unauthorized parties.
3. **Availability**: Ensuring that authorized users have reliable access to information and resources when needed.
## Common Internet Security Threats
Cyber threats are numerous and constantly evolving. Understanding these threats is the first step in protecting against them. Some of the most common internet security threats include:
### Malware
Malware, or malicious software, is designed to harm, exploit, or otherwise compromise a device, network, or service. Common types of malware include:
- **Viruses**: Programs that attach themselves to legitimate software and replicate, spreading to other programs and files.
- **Worms**: Standalone malware that replicates itself to spread to other computers.
- **Trojan Horses**: Malicious software disguised as legitimate software.
- **Ransomware**: Malware that encrypts a user's files and demands a ransom for the decryption key.
- **Spyware**: Software that secretly monitors and collects user information.
### Phishing
Phishing is a social engineering attack that aims to steal sensitive information such as usernames, passwords, and credit card details. Attackers often masquerade as trusted entities in email or other communication channels, tricking victims into providing their information.
### Man-in-the-Middle (MitM) Attacks
MitM attacks occur when an attacker intercepts and potentially alters communication between two parties without their knowledge. This can lead to the unauthorized acquisition of sensitive information.
### Denial-of-Service (DoS) and Distributed Denial-of-Service (DDoS) Attacks
Bridging the Digital Gap Brad Spiegel Macon, GA Initiative.pptxBrad Spiegel Macon GA
Brad Spiegel Macon GA’s journey exemplifies the profound impact that one individual can have on their community. Through his unwavering dedication to digital inclusion, he’s not only bridging the gap in Macon but also setting an example for others to follow.