Open Source Day 2018 - OpenShift accelera la digital transformation di SIAEPar-Tec S.p.A.
Riccardo Fiano, Ivan Vigolo (CIO di SIAE) e Igino Di Lello (Project Manager, Alkemy) hanno presentato gli obiettivi, le tappe cruciali e le scelte tecnologiche che hanno caratterizzato il percorso di digital transformation di SIAE, fondato su architetture a microservizi, container Docker e Red Hat OpenShift Container Platform.
I punti trattati durante la presentazione sono:
- Chi è SIAE
- La digital transformation di SIAE
- Lo sportello on-line
- Application container e microservizi
- La scelta: application container
- Il valore delle competenze
- SIAE e l’open source: una storia lunga più di 10 anni
- La piattaforma Red Hat OpenShift Container Platform
- Le dashboard
- Dai monoliti ai microservizi
- Integrazione delle componenti open source
Per saperne di più, scaricate le slide e guardate il video della presentazione ripreso in occasione dell’Open Source Day 2018 su https://www.par-tec.it/openshift-accelera-la-digital-transformation-di-siae
Gdg 2019 artificial intelligence, sviluppo web... le nuove regole del giocoDaniele Mondello
Dev Fest Mediterranean Le normative nelle nuove tecnologie. Come cambia lo scenario con le regole AGID. Le sfide dell'intelligenza artificiale. Il software come dispositivo medico.
Alberto Degradi - Conferenza Plenaria Mobile Revolution State of the artCultura Digitale
Big Data - Scenario and Networking impact di Alberto Degradi durante la giornata Mobile Focus svoltasi il 30 maggio 2014 a Torino nell'ambito del Digital Festival
Dynatrace Perform Roma 2018 - Red Hat OpenShift: i container per il mondo ent...Par-Tec S.p.A.
In occasione del Dynatrace Perform Roma 2018 il TechAdvisor Michelangelo Uberti ha illustrato come Red Hat OpenShift Container Platform e Dynatrace facilitano l’adozione dei container in ambito enterprise.
I punti trattati durante la presentazione sono:
- Parliamo dei container
- Red Hat OpenShift Container Platform
- Monitorare OpenShift con Dynatrace
- Chi usa OCP? Alcuni casi di successo
Per saperne di più, scaricate le slide e guardate il video della presentazione su https://www.par-tec.it/red-hat-openshift-i-container-per-il-mondo-enterprise
Open Source Day 2018 - OpenShift accelera la digital transformation di SIAEPar-Tec S.p.A.
Riccardo Fiano, Ivan Vigolo (CIO di SIAE) e Igino Di Lello (Project Manager, Alkemy) hanno presentato gli obiettivi, le tappe cruciali e le scelte tecnologiche che hanno caratterizzato il percorso di digital transformation di SIAE, fondato su architetture a microservizi, container Docker e Red Hat OpenShift Container Platform.
I punti trattati durante la presentazione sono:
- Chi è SIAE
- La digital transformation di SIAE
- Lo sportello on-line
- Application container e microservizi
- La scelta: application container
- Il valore delle competenze
- SIAE e l’open source: una storia lunga più di 10 anni
- La piattaforma Red Hat OpenShift Container Platform
- Le dashboard
- Dai monoliti ai microservizi
- Integrazione delle componenti open source
Per saperne di più, scaricate le slide e guardate il video della presentazione ripreso in occasione dell’Open Source Day 2018 su https://www.par-tec.it/openshift-accelera-la-digital-transformation-di-siae
Gdg 2019 artificial intelligence, sviluppo web... le nuove regole del giocoDaniele Mondello
Dev Fest Mediterranean Le normative nelle nuove tecnologie. Come cambia lo scenario con le regole AGID. Le sfide dell'intelligenza artificiale. Il software come dispositivo medico.
Alberto Degradi - Conferenza Plenaria Mobile Revolution State of the artCultura Digitale
Big Data - Scenario and Networking impact di Alberto Degradi durante la giornata Mobile Focus svoltasi il 30 maggio 2014 a Torino nell'ambito del Digital Festival
Dynatrace Perform Roma 2018 - Red Hat OpenShift: i container per il mondo ent...Par-Tec S.p.A.
In occasione del Dynatrace Perform Roma 2018 il TechAdvisor Michelangelo Uberti ha illustrato come Red Hat OpenShift Container Platform e Dynatrace facilitano l’adozione dei container in ambito enterprise.
I punti trattati durante la presentazione sono:
- Parliamo dei container
- Red Hat OpenShift Container Platform
- Monitorare OpenShift con Dynatrace
- Chi usa OCP? Alcuni casi di successo
Per saperne di più, scaricate le slide e guardate il video della presentazione su https://www.par-tec.it/red-hat-openshift-i-container-per-il-mondo-enterprise
Mio intervento all'evento organizzato in collaborazione con Fujitsu, Red Hat, Intel: "Define Your Strategy, Open Your Infrastructure", Roma, 1 Febbraio 2017
Un aiuto a costruire e gestire le idonee misure di sicurezza digitale dai dati dell’Osservatorio OAD, dai framework ITIL, COBIT, NIST, e dagli standard ISO che trattano l’argomento
Sviluppo di strumenti di Innovazione tecnologica in ambito servizi ambientali per la gestione dei servizi di raccolta e spazzamento, per l'automazione operativa (mezzi con guida assistita) e per gestire la moltitudine di informazioni a sistema.
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Vivere del Cambiamento: tracciare la rotta verso l'industria 4.0Eurotech
The IoT is the manifestation that the raw material of the information age is data. Data is the new source of innovation and the lever to achieve business sustainability. By extracting data from assets and products, companies can become more efficient through a strategic rethinking of their business processes. In so doing, companies will add the required readiness to shift from products to services, and eventually enter in the outcome economy. To truly embrace the digital transformation, organizations need to collect actionable data from their assets, processes, and products and then connect the OT world where data are generated to IT world where data are consumed. To make this happen, a IoT integration platform, that gives to the App an easy and versatile access to the data, is required . As a matter of fact the IoT essence resides in an impressive simplification of the OT-IT integration. The benefits are huge: the transformation of any business into a smart business, increasing competitiveness also in mature markets; the creation of new innovative products and services.
Vivere del Cambiamento: tracciare la rotta verso l'industria 4.0Roberto Siagri
The IoT is the manifestation that the raw material of the information age is data. Data is the new source of innovation and the lever to achieve business sustainability. By extracting data from assets and products, companies can become more efficient through a strategic rethinking of their business processes. In so doing, companies will add the required readiness to shift from products to services, and eventually enter in the outcome economy. To truly embrace the digital transformation, organizations need to collect actionable data from their assets, processes, and products and then connect the OT world where data are generated to IT world where data are consumed. To make this happen, a IoT integration platform, that gives to the App an easy and versatile access to the data, is required . As a matter of fact the IoT essence resides in an impressive simplification of the OT-IT integration. The benefits are huge: the transformation of any business into a smart business, increasing competitiveness also in mature markets; the creation of new innovative products and services.
Knowledge graph: il percorso di Cerved per connettere i Big Data - Diego SanvitoData Driven Innovation
In uno scenario in cui le fonti dati, all'interno e all'esterno dei confini delle organizzazioni, stanno crescendo esponenzialmente sia in quantità che in tipologia, la costruzione di un knowledge graph rappresenta una via interessante per connettere i dati, superando i silos e creando valore per gli utilizzatori finali. Partendo da esperienze sul campo che hanno portato una start-up a lavorare con una azienda più consolidata si esploreranno casi d'uso concreti che vanno da prodotti consolidati a esperienze più innovative nate anche all'interno di team di datascientist.
Progettare e realizzare
prodotti informatici personalizzati
per aiutare i nostri clienti
a migliorare i processi aziendali
e a risolvere il loro bisogno di comunicare strategicamente attraverso i media.
Nell’intervento Stefano Olivotto di Crédit Agricole Italia ha illustrato la sua esperienza nell’adozione di uno strumento di API management e di un processo di gestione delle API, con una particolare focalizzazione su metodologia di adozione, sulle principali sfide indirizzate e un verticale sul livello di automazione raggiunto mediante l’adozione di tecniche di DevOps.
Per maggiori informazioni scrivi a sales@profesia.it
The importance of now: rivedere il ciclo tradizionale del dato alla luce dell...SAS Italy
SAS Italy - Secondo ATKerney, l’Internet Of Things avrà un impatto del 6% sull’economia globale entro il 2020, spinto dalla crescente necessità di sensori e device connessi delle smart factories, dell’healtcare e dei wearable.
Questa crescita esponenziale pone, però, alle aziende nuove sfide nello storage e nella gestione dei dati: sarà l’analisi dati in real-time che permetterà alle organizzazioni di rispondere a queste esigenze?
Scopri, nella presentazione di Brad Hathaway, come applicare gli analytics ai dati provenienti dall’IoT e la crescente importanza del Data Management per la gestione dei tuoi dati.
Le catena del valore dell’IT in Italia passa anche per tutte le aziende informatiche piccole, medie e grandi che oggi offrono ai propri clienti non solo prodotti e servizi ma anche supporto, competenze, assistenza e soprattutto capacità di entrare nel loro business e nelle loro dinamiche. Il cloud computing in Italia deve vedere loro come protagoniste, altrimenti il suo grado di adozione resterà limitato.
Questo panel è dedicato a tutti coloro che credono che il cloud venduto online, a distanza di 8000 km, non possa essere la soluzione ideale per le aziende italiane. La loro particolarità dimensionale, la morfologia e i distretti industriali del territorio rendono il nostro paese unico nel suo genere: le aziende hanno difficoltà ad adeguarsi a standard generali che bloccherebbero la flessibilità e la creatività che da sempre le contraddistingue. Necessitano invece di affidare le proprie tecnologie a partner capaci non solo di assisterle ma anche di guidarle e di prendersene cura, imparando con il tempo a conoscerne le specificità locali.
Il cloud computing potrebbe diventare – se gestito in questa ottica – un grande punto di forza per il nostro futuro industriale, perché permetterebbe anche alle piccole imprese di accedere a tecnologie e a servizi un tempo appannaggio soltanto dei grandi competitor internazionali.
È una sfida che si può e si deve vincere.
Le catena del valore dell’IT in Italia passa anche per tutte le aziende informatiche piccole, medie e grandi che oggi offrono ai propri clienti non solo prodotti e servizi ma anche supporto, competenze, assistenza e soprattutto capacità di entrare nel loro business e nelle loro dinamiche. Il cloud computing in Italia deve vedere loro come protagoniste, altrimenti il suo grado di adozione resterà limitato.
Questo panel è dedicato a tutti coloro che credono che il cloud venduto online, a distanza di 8000 km, non possa essere la soluzione ideale per le aziende italiane. La loro particolarità dimensionale, la morfologia e i distretti industriali del territorio rendono il nostro paese unico nel suo genere: le aziende hanno difficoltà ad adeguarsi a standard generali che bloccherebbero la flessibilità e la creatività che da sempre le contraddistingue. Necessitano invece di affidare le proprie tecnologie a partner capaci non solo di assisterle ma anche di guidarle e di prendersene cura, imparando con il tempo a conoscerne le specificità locali.
Il cloud computing potrebbe diventare – se gestito in questa ottica – un grande punto di forza per il nostro futuro industriale, perché permetterebbe anche alle piccole imprese di accedere a tecnologie e a servizi un tempo appannaggio soltanto dei grandi competitor internazionali.
È una sfida che si può e si deve vincere.
Mio intervento all'evento organizzato in collaborazione con Fujitsu, Red Hat, Intel: "Define Your Strategy, Open Your Infrastructure", Roma, 1 Febbraio 2017
Un aiuto a costruire e gestire le idonee misure di sicurezza digitale dai dati dell’Osservatorio OAD, dai framework ITIL, COBIT, NIST, e dagli standard ISO che trattano l’argomento
Sviluppo di strumenti di Innovazione tecnologica in ambito servizi ambientali per la gestione dei servizi di raccolta e spazzamento, per l'automazione operativa (mezzi con guida assistita) e per gestire la moltitudine di informazioni a sistema.
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Vivere del Cambiamento: tracciare la rotta verso l'industria 4.0Eurotech
The IoT is the manifestation that the raw material of the information age is data. Data is the new source of innovation and the lever to achieve business sustainability. By extracting data from assets and products, companies can become more efficient through a strategic rethinking of their business processes. In so doing, companies will add the required readiness to shift from products to services, and eventually enter in the outcome economy. To truly embrace the digital transformation, organizations need to collect actionable data from their assets, processes, and products and then connect the OT world where data are generated to IT world where data are consumed. To make this happen, a IoT integration platform, that gives to the App an easy and versatile access to the data, is required . As a matter of fact the IoT essence resides in an impressive simplification of the OT-IT integration. The benefits are huge: the transformation of any business into a smart business, increasing competitiveness also in mature markets; the creation of new innovative products and services.
Vivere del Cambiamento: tracciare la rotta verso l'industria 4.0Roberto Siagri
The IoT is the manifestation that the raw material of the information age is data. Data is the new source of innovation and the lever to achieve business sustainability. By extracting data from assets and products, companies can become more efficient through a strategic rethinking of their business processes. In so doing, companies will add the required readiness to shift from products to services, and eventually enter in the outcome economy. To truly embrace the digital transformation, organizations need to collect actionable data from their assets, processes, and products and then connect the OT world where data are generated to IT world where data are consumed. To make this happen, a IoT integration platform, that gives to the App an easy and versatile access to the data, is required . As a matter of fact the IoT essence resides in an impressive simplification of the OT-IT integration. The benefits are huge: the transformation of any business into a smart business, increasing competitiveness also in mature markets; the creation of new innovative products and services.
Knowledge graph: il percorso di Cerved per connettere i Big Data - Diego SanvitoData Driven Innovation
In uno scenario in cui le fonti dati, all'interno e all'esterno dei confini delle organizzazioni, stanno crescendo esponenzialmente sia in quantità che in tipologia, la costruzione di un knowledge graph rappresenta una via interessante per connettere i dati, superando i silos e creando valore per gli utilizzatori finali. Partendo da esperienze sul campo che hanno portato una start-up a lavorare con una azienda più consolidata si esploreranno casi d'uso concreti che vanno da prodotti consolidati a esperienze più innovative nate anche all'interno di team di datascientist.
Progettare e realizzare
prodotti informatici personalizzati
per aiutare i nostri clienti
a migliorare i processi aziendali
e a risolvere il loro bisogno di comunicare strategicamente attraverso i media.
Nell’intervento Stefano Olivotto di Crédit Agricole Italia ha illustrato la sua esperienza nell’adozione di uno strumento di API management e di un processo di gestione delle API, con una particolare focalizzazione su metodologia di adozione, sulle principali sfide indirizzate e un verticale sul livello di automazione raggiunto mediante l’adozione di tecniche di DevOps.
Per maggiori informazioni scrivi a sales@profesia.it
The importance of now: rivedere il ciclo tradizionale del dato alla luce dell...SAS Italy
SAS Italy - Secondo ATKerney, l’Internet Of Things avrà un impatto del 6% sull’economia globale entro il 2020, spinto dalla crescente necessità di sensori e device connessi delle smart factories, dell’healtcare e dei wearable.
Questa crescita esponenziale pone, però, alle aziende nuove sfide nello storage e nella gestione dei dati: sarà l’analisi dati in real-time che permetterà alle organizzazioni di rispondere a queste esigenze?
Scopri, nella presentazione di Brad Hathaway, come applicare gli analytics ai dati provenienti dall’IoT e la crescente importanza del Data Management per la gestione dei tuoi dati.
Le catena del valore dell’IT in Italia passa anche per tutte le aziende informatiche piccole, medie e grandi che oggi offrono ai propri clienti non solo prodotti e servizi ma anche supporto, competenze, assistenza e soprattutto capacità di entrare nel loro business e nelle loro dinamiche. Il cloud computing in Italia deve vedere loro come protagoniste, altrimenti il suo grado di adozione resterà limitato.
Questo panel è dedicato a tutti coloro che credono che il cloud venduto online, a distanza di 8000 km, non possa essere la soluzione ideale per le aziende italiane. La loro particolarità dimensionale, la morfologia e i distretti industriali del territorio rendono il nostro paese unico nel suo genere: le aziende hanno difficoltà ad adeguarsi a standard generali che bloccherebbero la flessibilità e la creatività che da sempre le contraddistingue. Necessitano invece di affidare le proprie tecnologie a partner capaci non solo di assisterle ma anche di guidarle e di prendersene cura, imparando con il tempo a conoscerne le specificità locali.
Il cloud computing potrebbe diventare – se gestito in questa ottica – un grande punto di forza per il nostro futuro industriale, perché permetterebbe anche alle piccole imprese di accedere a tecnologie e a servizi un tempo appannaggio soltanto dei grandi competitor internazionali.
È una sfida che si può e si deve vincere.
Le catena del valore dell’IT in Italia passa anche per tutte le aziende informatiche piccole, medie e grandi che oggi offrono ai propri clienti non solo prodotti e servizi ma anche supporto, competenze, assistenza e soprattutto capacità di entrare nel loro business e nelle loro dinamiche. Il cloud computing in Italia deve vedere loro come protagoniste, altrimenti il suo grado di adozione resterà limitato.
Questo panel è dedicato a tutti coloro che credono che il cloud venduto online, a distanza di 8000 km, non possa essere la soluzione ideale per le aziende italiane. La loro particolarità dimensionale, la morfologia e i distretti industriali del territorio rendono il nostro paese unico nel suo genere: le aziende hanno difficoltà ad adeguarsi a standard generali che bloccherebbero la flessibilità e la creatività che da sempre le contraddistingue. Necessitano invece di affidare le proprie tecnologie a partner capaci non solo di assisterle ma anche di guidarle e di prendersene cura, imparando con il tempo a conoscerne le specificità locali.
Il cloud computing potrebbe diventare – se gestito in questa ottica – un grande punto di forza per il nostro futuro industriale, perché permetterebbe anche alle piccole imprese di accedere a tecnologie e a servizi un tempo appannaggio soltanto dei grandi competitor internazionali.
È una sfida che si può e si deve vincere.
Similar to How to beat Data Gravity with Kafka (20)
Catch the Wave: SAP Event-Driven and Data Streaming for the Intelligence Ente...confluent
In our exclusive webinar, you'll learn why event-driven architecture is the key to unlocking cost efficiency, operational effectiveness, and profitability. Gain insights on how this approach differs from API-driven methods and why it's essential for your organization's success.
Unlocking the Power of IoT: A comprehensive approach to real-time insightsconfluent
In today's data-driven world, the Internet of Things (IoT) is revolutionizing industries and unlocking new possibilities. Join Data Reply, Confluent, and Imply as we unveil a comprehensive solution for IoT that harnesses the power of real-time insights.
Workshop híbrido: Stream Processing con Flinkconfluent
El Stream processing es un requisito previo de la pila de data streaming, que impulsa aplicaciones y pipelines en tiempo real.
Permite una mayor portabilidad de datos, una utilización optimizada de recursos y una mejor experiencia del cliente al procesar flujos de datos en tiempo real.
En nuestro taller práctico híbrido, aprenderás cómo filtrar, unir y enriquecer fácilmente datos en tiempo real dentro de Confluent Cloud utilizando nuestro servicio Flink sin servidor.
Industry 4.0: Building the Unified Namespace with Confluent, HiveMQ and Spark...confluent
Our talk will explore the transformative impact of integrating Confluent, HiveMQ, and SparkPlug in Industry 4.0, emphasizing the creation of a Unified Namespace.
In addition to the creation of a Unified Namespace, our webinar will also delve into Stream Governance and Scaling, highlighting how these aspects are crucial for managing complex data flows and ensuring robust, scalable IIoT-Platforms.
You will learn how to ensure data accuracy and reliability, expand your data processing capabilities, and optimize your data management processes.
Don't miss out on this opportunity to learn from industry experts and take your business to the next level.
La arquitectura impulsada por eventos (EDA) será el corazón del ecosistema de MAPFRE. Para seguir siendo competitivas, las empresas de hoy dependen cada vez más del análisis de datos en tiempo real, lo que les permite obtener información y tiempos de respuesta más rápidos. Los negocios con datos en tiempo real consisten en tomar conciencia de la situación, detectar y responder a lo que está sucediendo en el mundo ahora.
Eventos y Microservicios - Santander TechTalkconfluent
Durante esta sesión examinaremos cómo el mundo de los eventos y los microservicios se complementan y mejoran explorando cómo los patrones basados en eventos nos permiten descomponer monolitos de manera escalable, resiliente y desacoplada.
Purpose of the session is to have a dive into Apache, Kafka, Data Streaming and Kafka in the cloud
- Dive into Apache Kafka
- Data Streaming
- Kafka in the cloud
Build real-time streaming data pipelines to AWS with Confluentconfluent
Traditional data pipelines often face scalability issues and challenges related to cost, their monolithic design, and reliance on batch data processing. They also typically operate under the premise that all data needs to be stored in a single centralized data source before it's put to practical use. Confluent Cloud on Amazon Web Services (AWS) provides a fully managed cloud-native platform that helps you simplify the way you build real-time data flows using streaming data pipelines and Apache Kafka.
Q&A with Confluent Professional Services: Confluent Service Meshconfluent
No matter whether you are migrating your Kafka cluster to Confluent Cloud, running a cloud-hybrid environment or are in a different situation where data protection and encryption of sensitive information is required, Confluent Service Mesh allows you to transparently encrypt your data without the need to make code changes to you existing applications.
Citi Tech Talk: Event Driven Kafka Microservicesconfluent
Microservices have become a dominant architectural paradigm for building systems in the enterprise, but they are not without their tradeoffs. Learn how to build event-driven microservices with Apache Kafka
Confluent & GSI Webinars series - Session 3confluent
An in depth look at how Confluent is being used in the financial services industry. Gain an understanding of how organisations are utilising data in motion to solve common problems and gain benefits from their real time data capabilities.
It will look more deeply into some specific use cases and show how Confluent technology is used to manage costs and mitigate risks.
This session is aimed at Solutions Architects, Sales Engineers and Pre Sales, and also the more technically minded business aligned people. Whilst this is not a deeply technical session, a level of knowledge around Kafka would be helpful.
Transforming applications built with traditional messaging solutions such as TIBCO, MQ and Solace to be scalable, reliable and ready for the move to cloud
How can applications built with traditional messaging technologies like TIBCO, Solace and IBM MQ be modernised and be made cloud ready? What are the advantages to Event Streaming approaches to pub/sub vs traditional message queues? What are the strengeths and weaknesses of both approaches, and what use cases and requirements are actually a better fit for messaging than Kafka?
This session will show why the old paradigm does not work and that a new approach to the data strategy needs to be taken. It aims to show how a Data Streaming Platform is integral to the evolution of a company’s data strategy and how Confluent is not just an integration layer but the central nervous system for an organisation
Vous apprendrez également à :
• Créer plus rapidement des produits et fonctionnalités à l’aide d’une suite complète de connecteurs et d’outils de gestion des flux, et à connecter vos environnements à des pipelines de données
• Protéger vos données et charges de travail les plus critiques grâce à des garanties intégrées en matière de sécurité, de gouvernance et de résilience
• Déployer Kafka à grande échelle en quelques minutes tout en réduisant les coûts et la charge opérationnelle associés
Confluent Partner Tech Talk with Synthesisconfluent
A discussion on the arduous planning process, and deep dive into the design/architectural decisions.
Learn more about the networking, RBAC strategies, the automation, and the deployment plan.
1. How to beat Data Gravity with Kafka
Data in Motion tour – Milano, 6 Ottobre 2022
2. Aiutiamo il Sistema Paese
a proteggersi dal rischio
e a crescere in modo sostenibile.
3. OLTRE 3.000
PROFESSIONISTI
2014
CERVED DEBUTTA SUL SEGMENTO MTA
DI BORSA ITALIANA
OLTRE 40M
DI INVESTIMENTI STANZIATI OGNI ANNO
PER AGGIORNARE E ARRICCHIRE I
DATABASE CON NUOVI DATI E FONTI
INFORMATIVE
OLTRE 1.000
RICHIESTE DI INFORMAZIONI AL
MINUTO SU 5,6 MILIONI DI AZIENDE
ATTIVE
600M
EVENTI DI MONITORAGGIO ALL'ANNO
OLTRE 1,1 PETABYTE
DI DATI ARCHIVIATI NEI NOSTRI 1.000 SERVER
Cerved è la data-driven company italiana nata nel 1974, che fornisce ad imprese e istituzioni i dati che guidano le loro
scelte, gli strumenti per interpretarli e un team di persone per trasformarli in azioni.
Siamo leader di mercato perché abbiamo saputo guidare il cambiamento, attraverso l’integrazione di importanti
realtà e l’ingresso in mercati vicini alle nostre attività tradizionali, fino a diventare nel 2014 la prima società quotata
del settore in Italia.
3
Cerved, la data-driven company
4. 4
Una storia che guarda al futuro
FONDAZIONE
Cerved
1974
2009
Bain Capital e Clessidra
acquisiscono e integrano
Centrale dei Bilanci,
Cerved, Lince, Pitagora,
Databank, Finservice e
Consit
CVC acquisisce
Cerved da Bain e
Clessidra
2013
2014
Cerved Information
Solutions S.p.A. - Holding
direzionale del Gruppo
Cerved – debutta sull’MTA
di Borsa Italiana
Cerved Group investe in
SpazioDati, tech-company
fondata nel 2012 specializzata
in big data, sales intelligence
e Lead generation
2014
2016
Cerved Group
acquisisce Click Adv
❨Payclick❩ fondata nel
2006, specializzata in
campagne digital
advertising
Cerved Group acquisisce:
• Proweb Consulting
fondata nel 2009
• SpazioDati
• Bauciweb
fondata nel 2009
2018
• Integrate: startup
specializzata in rating ESG
• Hawk: gruppo specializzato
in soluzioni AML
2020
2019
Cerved Group acquisisce
MBS, fondata nel 1987,
leader nella consulenza
di direzione
2021
Cerved Group Spa entra
in ION Group uno dei
più grandi operatori
Fintech sul mercato
5. ECOSISTEMA DATI
TECNOLOGIE DI
FRONTIERA
APP VALUE BASED
Il più grande ecosistema di dati in Italia, integrabile con quello dei nostri
partner e dei nostri clienti
Patrimonio informativo ricco, unico, distintivo e costantemente in crescita
Le Tecnologie più innovative ed avanzate per la gestione, elaborazione e
visualizzazione dei dati
Machine Learning, Advanced Analytics e Motori Semantici per trasformare i
dati in soluzioni di valore
«App» pronte all’uso, che non necessitano di attività di integrazione sui
sistemi ❨IT Independent❩
App Cerved per generare valore
5
I nostri elementi distintivi
1
2
3
6. 6
Utilizziamo tecnologie di frontiera
«Raw» Data
Insight
Only «Tech» Business
100% GDPR
compliant
Blockchain
Natural Language Processing
>1.000
Server
600M eventi
annui dati in
monitoraggio
>40M€
di investimenti
annui
>1,1 PetaByte di
dati archiviati
Partizioni
di Data Lake
Artificial Intelligence
Graph database
Cyber Security & Criptazione
Semantic
Text
Analytics
Engine
Piattaforma
API
Ergonomia
Cognitiva e di
Service
Design
DATA LAKE
DATA
ELABORATION
DATA FRUIBILITY
& SECURITY
DATA
VISUALIZATION
Fatturazione
elettronica
7. 7
Cerved è una Data-Driven company con un portafoglio di attività diversificato
Marketing Intelligence
Aiutare i nostri clienti a crescere fornendo
insight per decisioni basate sui dati
Ricavi 2021: €73,3M
Mission
Numeri
Aiutare i nostri clienti a gestire tutti i
rischi rilevanti relativi a credito,
compliance, normative e sostenibilità
Ricavi 2021: €287,9M
56,7%
Delle
vendite
Risk Intelligence
Mission
Numeri
Aiutare i nostri clienti a gestire i
loro crediti durante l'intero ciclo di
vita
Ricavi 2021: €146,4M
Credit Management
Mission
Numeri
28,8% delle
vendite
14,5%
delle
vendite
8. Guardiamo l’economia da un punto di vista
privilegiato
1° Agenzia in Europa per rating evasi registrata ESMA
Il dataset più completo su aziende italiane, stakeholder e
patrimonio immobiliare
Il più grande Bureau di pagamenti in Italia ❨PayLine❩
Il più grande operatore indipendente di servizi NPL in Italia
9. Istituzioni locali e internazionali guardano
a Cerved come punto di riferimento per
l'economia italiana
1. Comprese le micro aziende con acquisti su cervedirect.com
95%
delle banche italiane
I nostri clienti
+30.000
aziende1
+150
Pubbliche Autorità
Istituzioni
primarie
che utilizzano
i nostri dati
osservatore chiave sulle PMI per
le consultazioni periodiche
previste dall'articolo IV ❨Country
Surveillance❩
Fornitore di dati sulle
procedure concorsuali e
sui termini di pagamento
delle aziende
Fornitore di indicatore sintetico
del rischio affrontato dalle
aziende e istituzioni finanziarie
Fornitore di dati sulle
procedure concorsuali e sui
termini di pagamento delle
aziende
10. 10
Highlights
Le nostre performance1
1. performance al 31/12/2021
ECONOMICS & MARKETS
89,7%
SODDISFAZIONE
MEDIA CLIENTI
508,1 MILIONI
RICAVI
∼30.000
CLIENTI
GOVERNANCE SOCIAL ENVIRONMENTAL
50%
PRESENZA FEMMINILE
BOARD
70%
INDIPENDENZA
BOARD
11
POLICY ESG
2.800
DIPENDENTI
60%
DIPENDENTI
DONNE
+60.000 ORE
FORMAZIONE EROGATE
83%
ENERGIA ELETTRICA
RINNOVABILE
-9%
CONSUMI
ENERGETICI
-31%
EMISSIONI DI CO2
Cerved è tra i “leader della sostenibilità” nel 2021 e 2022 secondo il Sole24Ore e Statista.
Il riconoscimento premia le aziende che hanno raggiunto importanti risultati in tema ESG.
12. 12
Obiettivo
L’idea della Big Data Platform, nasce per soddisfare l’esigenza specifica del
prodotto «Silos 3 Query» e consiste nel creare un portafoglio clienti che
consenta alle banche di interrogare ed estrarre informazioni dalla propria
banca dati alimentata dai documenti acquistati e archiviati su GridFS di
MongoDB.
13. 13
• Gestire Big Data
• Paradigma CQRS
• Event-Driven Architecture
• Continuous Processing
• Data Lake Cerved delle Business Rules Statiche
Sfide
14. 14
Data Ecosystem Cerved Data Gravity
Sourcing
Liv.2
Sourcing
Liv. 1
REPOS
SYNTH
Mondo Dati Lince
Dati
clienti
NCA
ERG
EBS
HUB
DWH
MBD
Teradata
Tabula
Mongo4
DW
DB4You
XPCH 2
MATCH
NEMO
Quaest
io
LUDO
Tabula
(su AWS)
nephila
G4U
MBD1
R3
Pragma
Splunk CDR
Mambo
CAS
Dedalo
ELK
CSS
CR-RIBA
(Payline)
15. 15
Limiti sulla parte dati
DB Rel
Quaestio
Search
DWH
Rel
Ludo
Search
Nemo
Search XpCache
Portafoglio Tabula
Aracne
Session
Caching
Logging
CDR
Asincronia tra i database
Distonie sui dati
Rigenerazioni full continue
Complessità Manutenzioni
Duplicazione Business Rules
Poca scalabilità ETL
22. 22
Introduzione a Bitrock: Applicazioni Data Intensive
Qualsiasi business può essere visto come una serie di eventi lungo una linea temporale.
La gestione delle informazioni diventa sfida critica per quegli ecosistemi caratterizzati da grande quantità di dati,
grande complessità di dati e grande velocità di cambiamento.
Bitrock offre expertise nello sviluppo di Applicazioni Data Intensive.
Nello specifico, ci occupiamo di Data Streaming, gestito tramite l’Event-Driven Architecture.
PARTNERSHIP STRATEGICHE
Qualsiasi intervento a livello di Back-End deve riflettersi adeguatamente in ambito Front-End. Un Design
User-Centered è infatti necessario per gestire adeguatamente i dati in continuo cambiamento, migliorando così il
processo di decision making e creando valore per il business. Questo implica mettere bisogni e necessità dell’utente
sempre al centro del nostro lavoro, includendolo nel life-cycle progettuale.
APPROCCIO END-TO-END
23. 23
Event-Driven Architecture con Kafka
• Integrazione con servizi legacy in modalità pluggable
• Possibilità di evolvere il sistema senza intaccare i servizi esistenti
• Apertura a migrazione in cloud
• Disaccoppiamento Data ecosystem
• Kafka nuova sorgente dati per i sistemi
• Disaccoppiamento servizi
• Semplificazione dei flussi e dell'architettura
• Batch processing > Streaming near real time
25. Gruppi Cerved: Dall’evento grezzo all’evento di business
CDC
Producer
Raw Events
Aggregator
Basic Events
Aggregator
HL Events
Aggregator
• Cos’è Gruppi Cerved
Algoritmo che analizza tutto il grafo delle aziende italiane, cercando di
determinare quali sono i gruppi di aziende che possono essere raggruppate
come fossero un’entità unica, perché condividono lo stesso management o lo
stesso gruppo di potere che ne controlla le attività.
Cerved
DBs
Dati Business Rules
+ =
• Più di 230.000 gruppi
• Più di 850.000 aziende
nel perimetro (controllo
e semplice possesso)
25
26. Gruppi Cerved: Il problema
• Problema:
• I Gruppi Italiani sono memorizzati su MongoDB allo scopo di favorire il recupero immediato
dell’informazione completa, senza dover eseguire n processi di lettura su DB
• Aggiornare MongoDB vuol dire intercettare tutte le modifiche effettuate sui dati Oracle e
produrre l’aggiornamento, avendo la sicurezza di avere i Gruppi su MongoDB sempre
allineati ad Oracle
• Ma gli eventi generati dalla struttura relazionale e intercettati tramite CDC sono tanti
Tabula
GRUPPO
SINTESI_GRUPPO
SINTESI_GRUPPO_COMPLESSO CAPO_GRUPPO
CAPO_GRUPPO_PF
STRUTTURA_GRUPPO
COMPONENTE_GRUPPO
GERARCHIA_GRUPPI
CAPO_GRUPPO_PG
Cerved
DBs
26
27. Aggregazione di eventi eterogenei: Punto di partenza
• I dati sorgente sono separati su tabelle differenti.
• Con il CDC siamo in grado di produrre un changelog di eventi su Kafka creando un topic per tabella.
27
28. Aggregazione di eventi eterogenei: Possibili approcci
• ksqlDB
• Consumer + Producer API
• Utilizzo di un topic eterogeneo intermedio
• Kafka Streams
28
29. ksqlDB
• ksqlDB offre una sintassi SQL-like per la creazione di streams.
• Partendo da n topics con schemi differenti, abbiamo la necessità di aggregarli
tramite un’operazione di JOIN in maniera incrementale.
• Limitazioni: Molteplici topic intermedi, molteplici query persistenti potenzialmente lunghe o complesse.
29
30. Consumer & Producer API
• Consumare i messaggi da differenti topic utilizzando diversi Consumers Kafka.
• Aggregare i dati in memoria tramite una cache condivisa.
• Pubblicare il risultato finale dell'aggregazione su un topic di output tramite un Producer Kafka.
• Limitazioni: Gestione manuale delle finestre temporali per l'aggregazione, introduzione e mantenimento di uno
stato mutabile all'interno dell'applicazione, necessità di gestione di failover in case di errori o riavvii.
30
31. Utilizzo di un topic eterogeneo intermedio
• Utilizzando name strategy differenti è possibile ottenere topic eterogenei che contengono differenti schemi di dati.
• RecordNameStrategy consente di registrate uno schema per entità.
• TopicRecordNameStrategy consente di registrare uno schema per entità per topic.
• Limitazioni: Necessità di introdurre un nuovo topic che contiene gli stessi dati dei topic in input, aumento di
schemi duplicati registrati nello Schema Registry.
31
32. Kafka Streams
• Consumare tutti i differenti topic con un unico consumer e deserializzare gli aventi
come record Avro generici (SpecificRecord).
• Aggregare tutti gli eventi applicando a ogni diverso tipo di messaggio la logica di
aggregazione necessaria.
32
33. • event-gruppi-aggregator
• 9 CDC input topics
• aggregazione degli eventi CDC con window-size= 1min
• event.gruppi.repartition = topic interno necessaria per la ripartizione dei CDC topics
• event.gruppi.changelog = topic interno utilizzato da Kafka Streams per fault-tolerance
• event.gruppi = output topic
Gruppi Cerved: Come è stato implementato
gruppo capogruppo capogruppo_pf capogruppo_pg
componente_grupp
o
gerarchia_grupp
i
struttura_grupp
o
sintesi_gruppo
sintesi_gruppo_compless
o
event_gruppi_repartition
event_gruppi_changelog
event_gruppi
state
33
34. Gruppi Cerved: Dall’evento grezzo all’evento di business
CDC
Producer
event-gruppi-aggregator
event.gruppi.repartition
event.gruppi.changelog
event.gruppi
cdc.gruppi.tableN
cdc.gruppi.table2
cdc.gruppi.table1
ntabula.gruppi
gruppi-sink-connector Tabula gruppi-source-connector
Evento di Business
34