Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Polyglot Persistence e Big Data: tra innovazione e difficoltà su casi reali -...Data Driven Innovation
Oggi il tema non è più SI o NO ai sistemi NoSQL. Il problema sta nella capacità di essere “poliglotti” nell’uso di tecnologie per la gestione di dati e informazioni. Le strategie di innovazione sui Big Data nelle aziende non può prescindere dalla Polyglot Persistence, ma le difficoltà sono tante, specie in ambienti complessi ed enterprise. Ma la necessità di fare innovazione non è forte solo nelle startup, anzi…
MySQL Day Milano 2017 - Dalla replica a InnoDB Cluster: l’HA secondo MySQLPar-Tec S.p.A.
In occasione del MySQL Day 2017 di Milano il TechAdvisor Michelangelo Uberti ha fornito una panoramica delle soluzioni native di alta disponibilità di MySQL.
I punti trattati durante la presentazione sono:
- Presentazione dell’offerta Par-Tec dedicata a MySQL Enterprise
- High Availability: cause, esigenze, aspettative
- Funzionamento, benefici e limiti dei principali approcci:
- Replica tradizionale
- MySQL Cluster
- MySQL Group Replication
- La novità: MySQL InnoDB Cluster
Per saperne di più, scaricate le slide e guardate il video della presentazione del nostro TechAdvisor su https://www.par-tec.it/dalla-replica-a-innodb-cluster-l-ha-secondo-mysql-milano
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Polyglot Persistence e Big Data: tra innovazione e difficoltà su casi reali -...Data Driven Innovation
Oggi il tema non è più SI o NO ai sistemi NoSQL. Il problema sta nella capacità di essere “poliglotti” nell’uso di tecnologie per la gestione di dati e informazioni. Le strategie di innovazione sui Big Data nelle aziende non può prescindere dalla Polyglot Persistence, ma le difficoltà sono tante, specie in ambienti complessi ed enterprise. Ma la necessità di fare innovazione non è forte solo nelle startup, anzi…
MySQL Day Milano 2017 - Dalla replica a InnoDB Cluster: l’HA secondo MySQLPar-Tec S.p.A.
In occasione del MySQL Day 2017 di Milano il TechAdvisor Michelangelo Uberti ha fornito una panoramica delle soluzioni native di alta disponibilità di MySQL.
I punti trattati durante la presentazione sono:
- Presentazione dell’offerta Par-Tec dedicata a MySQL Enterprise
- High Availability: cause, esigenze, aspettative
- Funzionamento, benefici e limiti dei principali approcci:
- Replica tradizionale
- MySQL Cluster
- MySQL Group Replication
- La novità: MySQL InnoDB Cluster
Per saperne di più, scaricate le slide e guardate il video della presentazione del nostro TechAdvisor su https://www.par-tec.it/dalla-replica-a-innodb-cluster-l-ha-secondo-mysql-milano
Db2 11.1: l'evoluzione del Database secondo IBMJürgen Ambrosi
La gestione dei dati è indubbiamente un segmento chiave per la strategia IBM dei prossimi anni insieme con le tematiche Cognitive e Cloud. In tale ambito la gestione nelle basi dati è soggetta ad una evoluzione significativa verso la convergenza degli ambienti Analitici e Transazionali cosi da portare nei prossimi mesi ad una significativa semplificazione del disegno architetturale. A differenza dei tipici ambienti di business ove i processi transazionali ed analitici sono basati su distinte architetture, l'hybrid transactional analytical processin (HTAP) consentirà di eseguire analisi e transazioni sullo stesso Database senza impattare le prestazioni di tali ambienti. L'obiettivo di tale disegno strategico è abilitare i nostri clienti ad estrarre più valore dai propri dati, fornendo strumenti di analisi dati real-time nel punto esatto di generazione dei dati stessi.
Gartner prevede che oltre il 70 % delle implementazioni di Hadoop non soddisferà gli obiettivi di generazione di business e di riduzione dei costi a causa della mancanza di competenze sul mercato oltre che alle difficoltà d’integrazione.
Open Source Day 2016 - Caso cliente: OpenStack Self Data Center, il cloud com...Par-Tec S.p.A.
Il TechAdvisor Michelangelo Uberti e Francesco Massafra, responsabile Cloud Architecture & Network Engineering in TIM, presentano la tecnologia, le sfide e le opportunità alla base della nuova offerta Self Data Center, un'integrazione di Red Hat OpenStack Platform realizzata da Par-Tec per TIM.
I punti trattati durante la presentazione sono:
- L’offerta Self Data Center
- Modelli di servizio e di erogazione
- Panoramica dell’infrastruttura core
- Architettura logica
- Le sfide principali: computing, networking, storage
- Uno sguardo al futuro
Per saperne di più, scaricate le slide e guardate il video della presentazione su http://www.par-tec.it/caso-cliente-openstack-self-data-center-il-cloud-computing-secondo-tim
MongoDB 3.6 ti permette di *muoverti alla stessa velocità dei tuoi dati*, trasformando analisti, sviluppatori e sistemisti in un motore di crescita per il business. Con MongoDB 3.6, le applicazioni arrivano prima sul mercato, sono affidabili e sicure nell'esecuzione in scala, offrono intelligence e informazioni utili in tempo reale. https://www.mongodb.com/mongodb-3.6
E se vi chiedessi:
Cosa lega le ultime tendenze del cloud alla programmazione degli anni 80?
Quali sono le cose realmente importanti da tenere a mente quando si realizza un'applicazione?
Qual'è la strategia migliore per "inseguire professionalmente" le novità e non diventare rapidamente "obsoleto"?
Cosa si intende per "Pensiero Analogico e Azione Digitale"?
Questo e altro nel nuovo seminario di Pasquale Camastra (che si terrà presso la nostra sede il 14/09/2017 alle ore 17:30), che, questa volta nelle vesti di Evolutionary Architect, racconterà come affrontare le nuovissime tendenze delle Architetture Applicative in Cloud con lo spirito pionieristico di chi ha conosciuto l'informatica grazie al Commodor 64
Data Informed Design - KnowData16, Bologna, 18/11/2016Mentine
Data Informed Design: Perché Good Data è meglio di Big Data - di Dario Ferrari, Mentine - presentato durante l'evento sull'approccio data driven KnowData16, Bologna, 18/11/2016
Data Informed Design: perché Good Data è meglio di Big Data - KnowData2, Bolo...MOCA Interactive
Presentazione sul Data Driven Design e sull'importanza della Ricerca per costruire qualcosa che Funziona - di Dario Ferrari, Mentine - utilizzata durante l'evento sull'approccio data driven KnowData2, svoltosi a Bologna il 18/11/2016
Webinar: Come semplificare l'utilizzo del database con MongoDB AtlasMongoDB
In questo webinar ti presentiamo MongoDB Atlas, il nostro servizio DBaaS (Database-as-a-service) che offre tutte le funzionalità di MongoDB senza richiedere lo stesso impegno operativo, il tutto con i vantaggi di un modello di pagamento al consumo su base oraria.
Nell’intervento Stefano Olivotto di Crédit Agricole Italia ha illustrato la sua esperienza nell’adozione di uno strumento di API management e di un processo di gestione delle API, con una particolare focalizzazione su metodologia di adozione, sulle principali sfide indirizzate e un verticale sul livello di automazione raggiunto mediante l’adozione di tecniche di DevOps.
Per maggiori informazioni scrivi a sales@profesia.it
LARUS - Galileo.XAI e Gen-AI: la nuova prospettiva di LARUS per il futuro del...Neo4j
Roberto Sannino, Product Owner, Larus Business Automation
Nel panorama sempre più complesso dei progetti basati su grafi, LARUS ha consolidato una solida esperienza pluriennale, costruendo un rapporto di fiducia e collaborazione con Neo4j. Attraverso il LARUS Labs, ha sviluppato componenti e connettori che arricchiscono l’ecosistema Neo4j, contribuendo alla sua continua evoluzione. Tutto questo know-how è stato incanalato nell’innovativa soluzione Galileo.XAI di LARUS, un prodotto all’avanguardia che, integrato con la Generative AI, offre una nuova prospettiva nel mondo dell’Intelligenza Artificiale Spiegabile applicata ai grafi. In questo speech, si esplorerà il percorso di crescita di LARUS in questo settore, mettendo in luce le potenzialità della soluzione Galileo.XAI nel guidare l’innovazione e la trasformazione digitale.
LARUS - Galileo.XAI e Gen-AI: la nuova prospettiva di LARUS per il futuro del...Neo4j
Roberto Sannino, Larus Business Automation
Nel panorama sempre più complesso dei progetti basati su grafi, LARUS ha consolidato una solida esperienza pluriennale, costruendo un rapporto di fiducia e collaborazione con Neo4j. Attraverso il LARUS Labs, ha sviluppato componenti e connettori che arricchiscono l’ecosistema Neo4j, contribuendo alla sua continua evoluzione. Tutto questo know-how è stato incanalato nell’innovativa soluzione Galileo.XAI di LARUS, un prodotto all’avanguardia che, integrato con la Generative AI, offre una nuova prospettiva nel mondo dell’Intelligenza Artificiale Spiegabile applicata ai grafi. In questo speech, si esplorerà il percorso di crescita di LARUS in questo settore, mettendo in luce le potenzialità della soluzione Galileo.XAI nel guidare l’innovazione e la trasformazione digitale.
MongoDB SoCal 2020: Migrate Anything* to MongoDB AtlasMongoDB
This presentation discusses migrating data from other data stores to MongoDB Atlas. It begins by explaining why MongoDB and Atlas are good choices for data management. Several preparation steps are covered, including sizing the target Atlas cluster, increasing the source oplog, and testing connectivity. Live migration, mongomirror, and dump/restore options are presented for migrating between replicasets or sharded clusters. Post-migration steps like monitoring and backups are also discussed. Finally, migrating from other data stores like AWS DocumentDB, Azure CosmosDB, DynamoDB, and relational databases are briefly covered.
MongoDB SoCal 2020: Go on a Data Safari with MongoDB Charts!MongoDB
These days, everyone is expected to be a data analyst. But with so much data available, how can you make sense of it and be sure you're making the best decisions? One great approach is to use data visualizations. In this session, we take a complex dataset and show how the breadth of capabilities in MongoDB Charts can help you turn bits and bytes into insights.
More Related Content
Similar to La Modernizzazione dei Dati come base per La Trasformazione Digitale
Db2 11.1: l'evoluzione del Database secondo IBMJürgen Ambrosi
La gestione dei dati è indubbiamente un segmento chiave per la strategia IBM dei prossimi anni insieme con le tematiche Cognitive e Cloud. In tale ambito la gestione nelle basi dati è soggetta ad una evoluzione significativa verso la convergenza degli ambienti Analitici e Transazionali cosi da portare nei prossimi mesi ad una significativa semplificazione del disegno architetturale. A differenza dei tipici ambienti di business ove i processi transazionali ed analitici sono basati su distinte architetture, l'hybrid transactional analytical processin (HTAP) consentirà di eseguire analisi e transazioni sullo stesso Database senza impattare le prestazioni di tali ambienti. L'obiettivo di tale disegno strategico è abilitare i nostri clienti ad estrarre più valore dai propri dati, fornendo strumenti di analisi dati real-time nel punto esatto di generazione dei dati stessi.
Gartner prevede che oltre il 70 % delle implementazioni di Hadoop non soddisferà gli obiettivi di generazione di business e di riduzione dei costi a causa della mancanza di competenze sul mercato oltre che alle difficoltà d’integrazione.
Open Source Day 2016 - Caso cliente: OpenStack Self Data Center, il cloud com...Par-Tec S.p.A.
Il TechAdvisor Michelangelo Uberti e Francesco Massafra, responsabile Cloud Architecture & Network Engineering in TIM, presentano la tecnologia, le sfide e le opportunità alla base della nuova offerta Self Data Center, un'integrazione di Red Hat OpenStack Platform realizzata da Par-Tec per TIM.
I punti trattati durante la presentazione sono:
- L’offerta Self Data Center
- Modelli di servizio e di erogazione
- Panoramica dell’infrastruttura core
- Architettura logica
- Le sfide principali: computing, networking, storage
- Uno sguardo al futuro
Per saperne di più, scaricate le slide e guardate il video della presentazione su http://www.par-tec.it/caso-cliente-openstack-self-data-center-il-cloud-computing-secondo-tim
MongoDB 3.6 ti permette di *muoverti alla stessa velocità dei tuoi dati*, trasformando analisti, sviluppatori e sistemisti in un motore di crescita per il business. Con MongoDB 3.6, le applicazioni arrivano prima sul mercato, sono affidabili e sicure nell'esecuzione in scala, offrono intelligence e informazioni utili in tempo reale. https://www.mongodb.com/mongodb-3.6
E se vi chiedessi:
Cosa lega le ultime tendenze del cloud alla programmazione degli anni 80?
Quali sono le cose realmente importanti da tenere a mente quando si realizza un'applicazione?
Qual'è la strategia migliore per "inseguire professionalmente" le novità e non diventare rapidamente "obsoleto"?
Cosa si intende per "Pensiero Analogico e Azione Digitale"?
Questo e altro nel nuovo seminario di Pasquale Camastra (che si terrà presso la nostra sede il 14/09/2017 alle ore 17:30), che, questa volta nelle vesti di Evolutionary Architect, racconterà come affrontare le nuovissime tendenze delle Architetture Applicative in Cloud con lo spirito pionieristico di chi ha conosciuto l'informatica grazie al Commodor 64
Data Informed Design - KnowData16, Bologna, 18/11/2016Mentine
Data Informed Design: Perché Good Data è meglio di Big Data - di Dario Ferrari, Mentine - presentato durante l'evento sull'approccio data driven KnowData16, Bologna, 18/11/2016
Data Informed Design: perché Good Data è meglio di Big Data - KnowData2, Bolo...MOCA Interactive
Presentazione sul Data Driven Design e sull'importanza della Ricerca per costruire qualcosa che Funziona - di Dario Ferrari, Mentine - utilizzata durante l'evento sull'approccio data driven KnowData2, svoltosi a Bologna il 18/11/2016
Webinar: Come semplificare l'utilizzo del database con MongoDB AtlasMongoDB
In questo webinar ti presentiamo MongoDB Atlas, il nostro servizio DBaaS (Database-as-a-service) che offre tutte le funzionalità di MongoDB senza richiedere lo stesso impegno operativo, il tutto con i vantaggi di un modello di pagamento al consumo su base oraria.
Nell’intervento Stefano Olivotto di Crédit Agricole Italia ha illustrato la sua esperienza nell’adozione di uno strumento di API management e di un processo di gestione delle API, con una particolare focalizzazione su metodologia di adozione, sulle principali sfide indirizzate e un verticale sul livello di automazione raggiunto mediante l’adozione di tecniche di DevOps.
Per maggiori informazioni scrivi a sales@profesia.it
LARUS - Galileo.XAI e Gen-AI: la nuova prospettiva di LARUS per il futuro del...Neo4j
Roberto Sannino, Product Owner, Larus Business Automation
Nel panorama sempre più complesso dei progetti basati su grafi, LARUS ha consolidato una solida esperienza pluriennale, costruendo un rapporto di fiducia e collaborazione con Neo4j. Attraverso il LARUS Labs, ha sviluppato componenti e connettori che arricchiscono l’ecosistema Neo4j, contribuendo alla sua continua evoluzione. Tutto questo know-how è stato incanalato nell’innovativa soluzione Galileo.XAI di LARUS, un prodotto all’avanguardia che, integrato con la Generative AI, offre una nuova prospettiva nel mondo dell’Intelligenza Artificiale Spiegabile applicata ai grafi. In questo speech, si esplorerà il percorso di crescita di LARUS in questo settore, mettendo in luce le potenzialità della soluzione Galileo.XAI nel guidare l’innovazione e la trasformazione digitale.
LARUS - Galileo.XAI e Gen-AI: la nuova prospettiva di LARUS per il futuro del...Neo4j
Roberto Sannino, Larus Business Automation
Nel panorama sempre più complesso dei progetti basati su grafi, LARUS ha consolidato una solida esperienza pluriennale, costruendo un rapporto di fiducia e collaborazione con Neo4j. Attraverso il LARUS Labs, ha sviluppato componenti e connettori che arricchiscono l’ecosistema Neo4j, contribuendo alla sua continua evoluzione. Tutto questo know-how è stato incanalato nell’innovativa soluzione Galileo.XAI di LARUS, un prodotto all’avanguardia che, integrato con la Generative AI, offre una nuova prospettiva nel mondo dell’Intelligenza Artificiale Spiegabile applicata ai grafi. In questo speech, si esplorerà il percorso di crescita di LARUS in questo settore, mettendo in luce le potenzialità della soluzione Galileo.XAI nel guidare l’innovazione e la trasformazione digitale.
MongoDB SoCal 2020: Migrate Anything* to MongoDB AtlasMongoDB
This presentation discusses migrating data from other data stores to MongoDB Atlas. It begins by explaining why MongoDB and Atlas are good choices for data management. Several preparation steps are covered, including sizing the target Atlas cluster, increasing the source oplog, and testing connectivity. Live migration, mongomirror, and dump/restore options are presented for migrating between replicasets or sharded clusters. Post-migration steps like monitoring and backups are also discussed. Finally, migrating from other data stores like AWS DocumentDB, Azure CosmosDB, DynamoDB, and relational databases are briefly covered.
MongoDB SoCal 2020: Go on a Data Safari with MongoDB Charts!MongoDB
These days, everyone is expected to be a data analyst. But with so much data available, how can you make sense of it and be sure you're making the best decisions? One great approach is to use data visualizations. In this session, we take a complex dataset and show how the breadth of capabilities in MongoDB Charts can help you turn bits and bytes into insights.
MongoDB SoCal 2020: Using MongoDB Services in Kubernetes: Any Platform, Devel...MongoDB
MongoDB Kubernetes operator and MongoDB Open Service Broker are ready for production operations. Learn about how MongoDB can be used with the most popular container orchestration platform, Kubernetes, and bring self-service, persistent storage to your containerized applications. A demo will show you how easy it is to enable MongoDB clusters as an External Service using the Open Service Broker API for MongoDB
MongoDB SoCal 2020: A Complete Methodology of Data Modeling for MongoDBMongoDB
Are you new to schema design for MongoDB, or are you looking for a more complete or agile process than what you are following currently? In this talk, we will guide you through the phases of a flexible methodology that you can apply to projects ranging from small to large with very demanding requirements.
MongoDB SoCal 2020: From Pharmacist to Analyst: Leveraging MongoDB for Real-T...MongoDB
Humana, like many companies, is tackling the challenge of creating real-time insights from data that is diverse and rapidly changing. This is our journey of how we used MongoDB to combined traditional batch approaches with streaming technologies to provide continues alerting capabilities from real-time data streams.
MongoDB SoCal 2020: Best Practices for Working with IoT and Time-series DataMongoDB
Time series data is increasingly at the heart of modern applications - think IoT, stock trading, clickstreams, social media, and more. With the move from batch to real time systems, the efficient capture and analysis of time series data can enable organizations to better detect and respond to events ahead of their competitors or to improve operational efficiency to reduce cost and risk. Working with time series data is often different from regular application data, and there are best practices you should observe.
This talk covers:
Common components of an IoT solution
The challenges involved with managing time-series data in IoT applications
Different schema designs, and how these affect memory and disk utilization – two critical factors in application performance.
How to query, analyze and present IoT time-series data using MongoDB Compass and MongoDB Charts
At the end of the session, you will have a better understanding of key best practices in managing IoT time-series data with MongoDB.
Join this talk and test session with a MongoDB Developer Advocate where you'll go over the setup, configuration, and deployment of an Atlas environment. Create a service that you can take back in a production-ready state and prepare to unleash your inner genius.
MongoDB .local San Francisco 2020: Powering the new age data demands [Infosys]MongoDB
Our clients have unique use cases and data patterns that mandate the choice of a particular strategy. To implement these strategies, it is mandatory that we unlearn a lot of relational concepts while designing and rapidly developing efficient applications on NoSQL. In this session, we will talk about some of our client use cases, the strategies we have adopted, and the features of MongoDB that assisted in implementing these strategies.
MongoDB .local San Francisco 2020: Using Client Side Encryption in MongoDB 4.2MongoDB
Encryption is not a new concept to MongoDB. Encryption may occur in-transit (with TLS) and at-rest (with the encrypted storage engine). But MongoDB 4.2 introduces support for Client Side Encryption, ensuring the most sensitive data is encrypted before ever leaving the client application. Even full access to your MongoDB servers is not enough to decrypt this data. And better yet, Client Side Encryption can be enabled at the "flick of a switch".
This session covers using Client Side Encryption in your applications. This includes the necessary setup, how to encrypt data without sacrificing queryability, and what trade-offs to expect.
MongoDB .local San Francisco 2020: Using MongoDB Services in Kubernetes: any ...MongoDB
MongoDB Kubernetes operator is ready for prime-time. Learn about how MongoDB can be used with most popular orchestration platform, Kubernetes, and bring self-service, persistent storage to your containerized applications.
MongoDB .local San Francisco 2020: Go on a Data Safari with MongoDB Charts!MongoDB
These days, everyone is expected to be a data analyst. But with so much data available, how can you make sense of it and be sure you're making the best decisions? One great approach is to use data visualizations. In this session, we take a complex dataset and show how the breadth of capabilities in MongoDB Charts can help you turn bits and bytes into insights.
MongoDB .local San Francisco 2020: From SQL to NoSQL -- Changing Your MindsetMongoDB
When you need to model data, is your first instinct to start breaking it down into rows and columns? Mine used to be too. When you want to develop apps in a modern, agile way, NoSQL databases can be the best option. Come to this talk to learn how to take advantage of all that NoSQL databases have to offer and discover the benefits of changing your mindset from the legacy, tabular way of modeling data. We’ll compare and contrast the terms and concepts in SQL databases and MongoDB, explain the benefits of using MongoDB compared to SQL databases, and walk through data modeling basics so you feel confident as you begin using MongoDB.
MongoDB .local San Francisco 2020: MongoDB Atlas JumpstartMongoDB
Join this talk and test session with a MongoDB Developer Advocate where you'll go over the setup, configuration, and deployment of an Atlas environment. Create a service that you can take back in a production-ready state and prepare to unleash your inner genius.
MongoDB .local San Francisco 2020: Tips and Tricks++ for Querying and Indexin...MongoDB
The document discusses guidelines for ordering fields in compound indexes to optimize query performance. It recommends the E-S-R approach: placing equality fields first, followed by sort fields, and range fields last. This allows indexes to leverage equality matches, provide non-blocking sorts, and minimize scanning. Examples show how indexes ordered by these guidelines can support queries more efficiently by narrowing the search bounds.
MongoDB .local San Francisco 2020: Aggregation Pipeline Power++MongoDB
Aggregation pipeline has been able to power your analysis of data since version 2.2. In 4.2 we added more power and now you can use it for more powerful queries, updates, and outputting your data to existing collections. Come hear how you can do everything with the pipeline, including single-view, ETL, data roll-ups and materialized views.
MongoDB .local San Francisco 2020: A Complete Methodology of Data Modeling fo...MongoDB
The document describes a methodology for data modeling with MongoDB. It begins by recognizing the differences between document and tabular databases, then outlines a three step methodology: 1) describe the workload by listing queries, 2) identify and model relationships between entities, and 3) apply relevant patterns when modeling for MongoDB. The document uses examples around modeling a coffee shop franchise to illustrate modeling approaches and techniques.
MongoDB .local San Francisco 2020: MongoDB Atlas Data Lake Technical Deep DiveMongoDB
MongoDB Atlas Data Lake is a new service offered by MongoDB Atlas. Many organizations store long term, archival data in cost-effective storage like S3, GCP, and Azure Blobs. However, many of them do not have robust systems or tools to effectively utilize large amounts of data to inform decision making. MongoDB Atlas Data Lake is a service allowing organizations to analyze their long-term data to discover a wealth of information about their business.
This session will take a deep dive into the features that are currently available in MongoDB Atlas Data Lake and how they are implemented. In addition, we'll discuss future plans and opportunities and offer ample Q&A time with the engineers on the project.
MongoDB .local San Francisco 2020: Developing Alexa Skills with MongoDB & GolangMongoDB
Virtual assistants are becoming the new norm when it comes to daily life, with Amazon’s Alexa being the leader in the space. As a developer, not only do you need to make web and mobile compliant applications, but you need to be able to support virtual assistants like Alexa. However, the process isn’t quite the same between the platforms.
How do you handle requests? Where do you store your data and work with it to create meaningful responses with little delay? How much of your code needs to change between platforms?
In this session we’ll see how to design and develop applications known as Skills for Amazon Alexa powered devices using the Go programming language and MongoDB.
MongoDB .local Paris 2020: Realm : l'ingrédient secret pour de meilleures app...MongoDB
aux Core Data, appréciée par des centaines de milliers de développeurs. Apprenez ce qui rend Realm spécial et comment il peut être utilisé pour créer de meilleures applications plus rapidement.
MongoDB .local Paris 2020: Upply @MongoDB : Upply : Quand le Machine Learning...MongoDB
Il n’a jamais été aussi facile de commander en ligne et de se faire livrer en moins de 48h très souvent gratuitement. Cette simplicité d’usage cache un marché complexe de plus de 8000 milliards de $.
La data est bien connu du monde de la Supply Chain (itinéraires, informations sur les marchandises, douanes,…), mais la valeur de ces données opérationnelles reste peu exploitée. En alliant expertise métier et Data Science, Upply redéfinit les fondamentaux de la Supply Chain en proposant à chacun des acteurs de surmonter la volatilité et l’inefficacité du marché.
MongoDB .local Paris 2020: Upply @MongoDB : Upply : Quand le Machine Learning...
La Modernizzazione dei Dati come base per La Trasformazione Digitale
1. Con la partecipazione di:
La Modernizzazione dei Dati come
base per La Trasformazione
Digitale
MongoDB Milano, 19 Aprile 2018
2. • Le sfide della Trasformazione Digitale
• Evoluzione, innovazione, automazione:
cos'è la modernizzazione legacy
• Perché MongoDB?
• Storie di successo: OASI
• Q&A e Conclusione
Agenda
3. I Nostri Oratori
Marco Rapetti
Regional Director Italy,
MongoDB
marco.rapetti@mongodb.com
Massimo Brignoli
Principal Solutions Architect,
MongoDB
massimo@mongodb.com
Andrea Giuliani
Responsabile Ufficio Architetture
Innovazione e Qualità dei rilasci,
OASI
andrea.giuliani@oasi-it.it
Dario Verghi.
Enterprise Account Manager
MongoDB
dario.verghi@mongodb.com
4. Le Sfide della Trasformazione Digitale
Marco Rapetti
Regional Director Italy,
MongoDB
marco.rapetti@mongodb.com
6. 6
IT Challenges
Data Applications Commercials Risk
Volume
Velocity
Variety
Silos
Time to value
AgileDev
Scalability
Opex vs Capex
TCO
24/7 availability
Global impact
Business criticality
Talent Acquisition
7. 7
Legacy
RDBMS systems were not created for today’s requirements and consequently try to bolt-on features to compensate for the lack of
capabilities. But this strategy can’t compete with data management systems designed & purpose-built to solve today’s problems.
Legacy RDBMS systems are falling short
Rigid Schemas
Resistant to
change
Throughput &
Cost make Scale-
Up Impractical
Relational Model Scale-up
Data changes constantly,
which fits poorly with a
relational model
Scale-Up clusters were never meant
to handle today’s volumes
Today
Flexible Model
01
10
JSON
Scale-out
Flexible Multi-Structured
Schema that is designed to
adapt to changes
Scale-out to the end of the
world and distribute data
where it needs to be
8. Che cos’è la Legacy Modernization
Dario Verghi.
Enterprise Account Manager
MongoDB
dario.verghi@mongodb.com
9. 9
Legacy Modernization is a strategic IT initiative targeting a
portfolio of applications.
Multiple underlying technologies are rationalized with a new
technology stack, delivering significant savings to the business
while enabling other transformational initiatives.
10. 10
• Common limitations of RDBMS impeded progress
• Consolidated “data fabric” as future data platform
• £10M in savings in the first year and 100% uptime
Customer Story – Royal Bank of Scotland
11. 11
“Data Fabric will help reduce cost
significantly and dramatically increase
the speed at which we can deploy new
capabilities for our customers”
-Ross McEwan, CEO RBS
RBS’s Investor Report FY’16
13. 13
• Significantly reduce number of overall technologies used
• Seamless integration between modern applications
• Expertise with next generation technologies
• Permit new ways of working (i.e. devops and agile)
• Fully multi-tenant compliant
• Create predictable cost structure
Evolve
15. 15
• Establish transparency in the data
• Increase development velocity and
deliver differentiated functionality
• Leverage data for new revenue
streams (four main areas of data
insight)
• Deliver new services or applications in
hours instead of months
Innovate
16. 16
Evolve InnovateAutomate
o Native multi-model
o Deployment-agnostic data
layer
o Consumption based
pricing
o MongoDB PS
o Flexible data model
o Native JSON drivers
• Continuous improvement
• On-platform data
processing and analysis
• Generate data insights
• Ops Manager /Cloud
Manager
• Atlas
• Built-in replication
• Scale on demand
• Self-service
Why MongoDB
25. 25
MongoDB is Full-Featured
Rich Queries
Find Paul’s cars
Find everybody in London with a car between 1970 and 1980
Geospatial Find all of the car owners within 5km of Trafalgar Sq.
Text Search Find all the cars described as having leather seats
Aggregation Calculate the average value of Paul’s car collection
Map Reduce
What is the ownership pattern of colors by geography over time
(is purple trending in China?)
31. L’Esperienza di OASI
Andrea Giuliani
Responsabile Ufficio Architetture
Innovazione e Qualità dei rilasci,
OASI
andrea.giuliani@oasi-it.it
32. 32
• Leader nel mercato bancario, assicurativo e finanziario, propone:
– soluzioni informatiche,
– servizi di outsourcing applicativo e amministrativo, progetti
– Aree: sistemi direzionali e di sintesi, segnalazioni agli organi di vigilanza nazionale e comunitaria,
antiriciclaggio.
• Le soluzioni devono adattarsi ai continui cambiamenti normativi
• Nuove esigenze di mercato impongono prodotti:
– più performanti
– calabili per grandi clienti
– sviluppati con linguaggi di programmazione moderni
– Facili e veloci da manutenere
Chi è OASI
33. 33
• Poter gestire un cliente 13 volte più grande rispetto al maggior cliente
attualmente in servizio di outsourcing, nei tempi compatibili con le
scadenze ufficiali. Abbattere significativamente i tempi elaborativi :
– caricamento,
– generazioni
– predisposizione del db a fini di reporting
• Adeguamento alle nuove normative e alle nuove direttive
Nuove Necessità
34. 34
• Le informazioni devono essere disponibili in modo:
• Friendly:
– Report regolamentari standard sempre disponibili e aggiornati
– Report navigabili in modalità drill-down fino alla massima granularità
• Open:
– Accessibili con servizi SOA e/o Rest
– Esportabili in maniera rapida ed intuitiva
– I dati devono essere disponibili al massimo dettaglio ma velocemente aggregabili secondo l’esigenza
del business
• Fast:
– I dati devono essere sempre aggiornati in tempi veloci
– Il tempo di aggiornamento dei dati non deve essere proporzionale al volume dei dati trattati, ma si
deve poter far scalare il sistema mantenendo costante il tempo di elaborazione
Requisiti della Nuova Architettura
36. 36
Requisiti del Nuovo Database
Schema Flessibile
01
10JSON
Scalabilità
Orizzontale
…
Schemaflessibileèadattoasupportare cambiamenti
Alcresceredeivolumisiaggiungononodisuhardwaredi
costocontenuto
37. 37
Requisiti del Nuovo Database
Scalabilità
L’architettura deve permettere di partire con una configurazione di
«basso profilo» che soddisfi le necessita iniziali e che possa essere in
seguito adeguata in base alle necessità crescenti, e quindi abbia la
possibilità di scalare sia orizzontalmente (ovvero con l’aggiunta di
nodi o il cambio di hardware) o verticalmente (ovvero aumentando le
le risorse dei vari server).
Quindi dovranno essere privilegiate nella scelta quelle soluzioni che
possano operare in ambienti ridondati (sia cluster che con presenza
di bilanciatori) senza modifiche applicative e che possano lavorare
in-memory.
Scale-up
Scale-out
In-memory
38. 38
Requisiti del Nuovo Database
Base dati a schema flessibile
• Aggiungere, rimuovere o modificare gli attributi delle Entità
deve essere agile senza sforzi per i test di non regressione.
• I nostri utenti concepiscono più facilmente i dati contenuti
all’interno di un unico documento. Fino ad oggi gli abbiamo
invece divisi per categorie e riuniti nella loro esposizione.
Codice sorgente unico
• Le varie applicazioni, ed i linguaggi di programmazione,
devono essere installate su diverse piattaforme hardware e su
vari sistemi operativi
• Privilegiare quelle applicazioni che prevedono l’utilizzo di
linguaggi cross-platform e che sfruttino al massimo le risorse
hardware
AGILE
High
Performance
39. 39
NDG Name Stato Punteggio Verifica Fascia
9950 Mario Rossi 086 35 Rafforzata A
Modello Tabellare
PuntID BenFK Punt
100 1 15
200 2 20
Codice
Dato
NDGF
K
PuntFK
1 9950 100
2 9950 200
DatoID Descr
1 Liste
2 Inatteso
StatoID Descrizione
086 Italia
FasciaID Descrizione
A Alta
Profilo
Calc
35
Stato
Italia 086
Dato
liste
Inatteso
La struttura
Documentale
evita JOINs
per maggiori
performance e
semplicità di
utilizzo
40. 40
NDG Name Stato TitleID Verifica Fascia
9950 Mario
Rossi
086 1500 Rafforzat
a
AListe 15
Inattes
o
20
Modello Documentale
PuntID Benefit Punt
100 Liste 15
200 Inatteso 20
Profilo
35
Stato
Italia 086
{
_id : 9950,
name: “Mario Rossi",
Stato : { codice : “086",
descrizione: “Italia" },
Profilo : 35,
verifica: “Rafforzata",
fascia: “A",
dettaglio : [
{ punteggio : 15,
dato : “liste” },
{ punteggio : 20,
dato : “inatteso” }
]
}
La struttura
Documentale evita
JOINs per maggiori
performance e
semplicità di utilizzo
41. 41
Back-End Technical Architecture - Overview
Input streams
from external systems
IBM DataStage
Mongo DB
Catalog
Data
Collection
IBM ODM
BI
Analytics
Java
Back-End
Data Governance
Environment
Develop
Environments
Data
warehouses
Web
Application
Office Online
Server
Sistema di Produzione