Cloud storage in azienda: perche` Riak ci e` piaciutoBioDec
La realizzazione di un software per l'automazione di un processo di
lavoro ha portato all'implementazione di un sistema di storage in
grado di gestire imponenti flussi di dati (raw data, immagini...).
Il core del sistema di archiviazione e` il database NoSql Riak. A
quasi un anno dall'entrata in produzione, tale configurazione si e`
confermata robusta e performante (vengono acquisiti in modo
ridondato centinaia di migliaia di files ogni mese, realizzando un
archivio permanente in costante crescita dell'ordine di terabytes).
Nel corso dell'intervento verranno mostrate le motivazioni che hanno
portato a questa scelta.
Oltre ad una rapida panoramica volta ad illustrare le funzionalita`
di Riak si intende condividere in modo pratico il know-how acquisito
ripercorrendo le problematiche riscontrate durante il setup, la
configurazione e la gestione di un cluster Riak (ambienti di
sviluppo e produzione, ottimizzazioni, deploy del cluster, backup,
disaster recovery, ...).
SQL Saturday 871 - Sardegna 2019 - SQL Server DR on AzureMarco Obinu
Slides presented at SQL Saturday 871, regarding DR technologies for SQL Server using Azure as a secondary datacenter. Slides includes demo videos on how to extend an existing SQL FCI to Azure with Basic Availabity Groups.
Demo scripts available at https://github.com/OmegaMadLab/FCI_and_AG
Full session recording available at https://www.youtube.com/watch?v=s8TmM-0E9sQ
Structured Streaming è il modulo di Stream Processing costruito sul motore Spark SQL. In poche parole garantisce l'esecuzione di un messaggio esattamente una volta, è scalabile e fault-tolerant. È possibile definire le analisi stream nello stesso modo in cui si definirebbe un calcolo batch sui dati usando i Dataset/DataFrame API in Scala, Java, Python or R utilizzando l'engine SQL di Spark.
Durante la sessione vedremo un'overview delle funzionalità e un esempio di di come sia possibile eseguire l'ingestion dei dati con Event Hub (Kafka enabled) eseguire un'analisi con Spark e salvare i risultati su Cosmos DB.
CCI2019 - SQL Server ed Azure: Disaster Recovery per tuttiwalk2talk srl
Grazie al Azure, oggigiorno è possibile disegnare soluzioni di Disaster Recovery affidabili e di facile implementazione anche per la media e piccola impresa.
Vediamo insieme quali sono le soluzioni suggerite da Microsoft, confrontandone pregi e difetti.
By Marco Obinu
Cloud storage in azienda: perche` Riak ci e` piaciutoBioDec
La realizzazione di un software per l'automazione di un processo di
lavoro ha portato all'implementazione di un sistema di storage in
grado di gestire imponenti flussi di dati (raw data, immagini...).
Il core del sistema di archiviazione e` il database NoSql Riak. A
quasi un anno dall'entrata in produzione, tale configurazione si e`
confermata robusta e performante (vengono acquisiti in modo
ridondato centinaia di migliaia di files ogni mese, realizzando un
archivio permanente in costante crescita dell'ordine di terabytes).
Nel corso dell'intervento verranno mostrate le motivazioni che hanno
portato a questa scelta.
Oltre ad una rapida panoramica volta ad illustrare le funzionalita`
di Riak si intende condividere in modo pratico il know-how acquisito
ripercorrendo le problematiche riscontrate durante il setup, la
configurazione e la gestione di un cluster Riak (ambienti di
sviluppo e produzione, ottimizzazioni, deploy del cluster, backup,
disaster recovery, ...).
SQL Saturday 871 - Sardegna 2019 - SQL Server DR on AzureMarco Obinu
Slides presented at SQL Saturday 871, regarding DR technologies for SQL Server using Azure as a secondary datacenter. Slides includes demo videos on how to extend an existing SQL FCI to Azure with Basic Availabity Groups.
Demo scripts available at https://github.com/OmegaMadLab/FCI_and_AG
Full session recording available at https://www.youtube.com/watch?v=s8TmM-0E9sQ
Structured Streaming è il modulo di Stream Processing costruito sul motore Spark SQL. In poche parole garantisce l'esecuzione di un messaggio esattamente una volta, è scalabile e fault-tolerant. È possibile definire le analisi stream nello stesso modo in cui si definirebbe un calcolo batch sui dati usando i Dataset/DataFrame API in Scala, Java, Python or R utilizzando l'engine SQL di Spark.
Durante la sessione vedremo un'overview delle funzionalità e un esempio di di come sia possibile eseguire l'ingestion dei dati con Event Hub (Kafka enabled) eseguire un'analisi con Spark e salvare i risultati su Cosmos DB.
CCI2019 - SQL Server ed Azure: Disaster Recovery per tuttiwalk2talk srl
Grazie al Azure, oggigiorno è possibile disegnare soluzioni di Disaster Recovery affidabili e di facile implementazione anche per la media e piccola impresa.
Vediamo insieme quali sono le soluzioni suggerite da Microsoft, confrontandone pregi e difetti.
By Marco Obinu
Talk di Luca Lusso | Drupal Day Roma 2011
Snellire il carico del server per generare e restituire un json da usare per un autocompletamento. Notificare che un nodo è stato appena creato a tutti gli utenti che stanno visitando il sito in questo momento. Oppure ancora mettere a disposizione degli utenti una chat in tempo reale. Tutto questo (e molto altro) si può delegare ad un processo esterno a Drupal per aumentare velocità di interazione e diminuire il carico del server.
Durante il talk si vedrà come installare e usare node.js e come integrarlo con Drupal. Verrà mostrato il modulo nodejs presente nel repository di drupal.org
Un'Infrastruttura di Sviluppo Web Enterprise Distribuita Basata su Modelli Pa...Natale Vinto
My Master Degree in Computer Engineering Dissertation about delivering an open source extendible hybrid cloud solution for Platform-as-a-Service with Openshift, integrated in an Infrastructure-as-a-Service deployment with Openstack Grizzly RDO
Deployment ripetibili e automatizzati con Saltitbabu
Gestisci uno o centinaia di server?
Hai intenzione di mettere in produzione il tuo primo progetto con Django?
Diventi matto ogni volta che devi fare una modifica ad un server in produzione?
Ti è stato appena assegnato il progetto di un programmatore che ha appena lasciato l'azienda, e hai appena scoperto che quello che c'è sul server di produzione è diverso da quello che c'è scritto nella wiki aziendale?
Allora... questo talk fa per te.
Il deployment è un passo fondamentale di qualsiasi progetto. Purtroppo può diventare un'operazione ripetitiva, complicata e rischiosa.
Questo talk sarà un'introduzione su come ottenere installazioni ripetibili e automatizzate di Django utilizzando Salt, un software Open Source scritto in Python
Polyglot Persistance con PostgreSQL, CouchDB, MongoDB, Redis e OrientDBSteve Maraspin
Pirma parte del seminario su NoSQL al DiTeDi di Udine del 15/12/2012. Affrontato il caso di studio di un'architettura enterprise, basata su datastore relazionali (PostgreSQL) e non (CouchDB, MongoDB, Redis e OrientDB).
Speaker: Luca Lusso
Area: Development
Probabilmente Drupal8 sarà la versione più performante di Drupal mai realizzata (o almeno questo è l'obiettivo). In questo talk vedremo alcune delle tecniche che sono state messe in campo per raggiungere questo risultato e vedremo come sfruttarle dentro ad un modulo custom.
Al DjangoVillage di Orvieto 2014, ha partecipato il nostro Matteo Durighetto, area DB di Miriade e vicepresidente ITPUG, con un intervento sulle ultime novità di PostgreSQL 9.4. In queste slide verrano esposte le feature maggiori di PostgreSQL 9.3 come la cascanding replication con il remastering, le updatable view, il parallel pg dump e i nuovi costrutti di query come i lateral join ma l’attenzione si focalizza sulle nuove feature che porterà con sè la nuova versione 9.4.
Sono state esposte le feature maggiori di PostgreSQL 9.3 come la cascanding replication con il remastering, le updatable view, il parallel pg dump e i nuovi costrutti di query come i lateral join ma l’attenzione si è focalizzata sulle nuove feature che porterà con sè la nuova versione 9.4.
2. Definizione di Linked-Data
1. Use URIs to name (identify) things.
2. Use HTTP URIs so that these things can be looked up (interpreted,
"dereferenced").
3. Provide useful information about what a name identifies when it's looked up,
using open standards such as RDF, SPARQL, etc.
4. Refer to other things using their HTTP URI-based names when publishing data
on the Web.
6. Esempi di Triplestore
Open Source:
-Virtuoso Open Source (https://virtuoso.openlinksw.com/)
-Blazegraph (https://www.blazegraph.com/)
Non Open Source:
- Stardog (http://www.stardog.com/)
8. Virtuoso Open Source ~ Pregi e difetti
PRO
● Stabilità
● Robustezza
● Endpoint SPARQL integrato
CONTRO
● Il risultato di alcune query viene
troncato
● La versione Open Source non può
essere installata su un cluster
9. Virtuoso Open Source ~ Perfetto per:
● Essere usato in produzione per esporre
Linked Data.
● Resistere alle query più complesse.
10. Virtuoso Open Source ~ Configurazione 1
● File di configurazione principale:
/opt/virtuoso-opensource/var/lib/virtuoso/db/virtuoso.ini
● Accesso di default:
○ 8890 interfaccia web per configurazione e amministrazione
■ un endpoint sparql si trova $host_ip:8890/sparql
○ 1111 accesso dati SQL (via iSQL, ODBC, JDBC, OLE DB, ADO.NET)
13. Blazegraph ~ Pregi e difetti
PRO
● Risponde a tutte le query
● Installazione su cluster
● Progetto promettente (è usato da
Wikidata!) e molto attivo
● Facilità di installazione
● Creazione di numerosi namespace
(aka nuovi triplestore.)
CONTRO
● Alcune query mandano in freeze il
triplestore
● Assenza di una maschera Web
dell’end-point SPARQL
● Assenza di granularità nella
gestione dei permessi di
lettura/scrittura
14. Blazegraph ~ Perfetto per:
● Essere usato in pipeline
● Essere usato in fase di sviluppo
15. BLazegraph ~ Configurazione
● Comando di avvio:
java -server -Xmxi4g -jar lib/blazegraph.jar
● Accesso di default:
○ $host_ip:9999 interfaccia web per configurazione e amministrazione
16. SPARQL end-point
GUI (query editor)
A SPARQL endpoint enables users (human or other) to query a
knowledge base via the SPARQL language. Results are typically
returned in one or more machine-processable formats
22. LodView ~ Configurazione
● Web Application in Java.
● File di configurazione in formato turtle:
/var/lib/tomcat7/webapps/lodview/WEB-INF/conf.ttl
● Accesso di default:
○ $host_ip:8080 interfaccia web
23. Big Linked Open Data
Dal triplestore verso i linked data su infrastruttura BigData
25. Linked Data Platform
Piattaforma Web RESTful, che permette di gestire “risorse Web”
(RDF e altri file, risorse cloud), usando i Linked Data per gestire i
permessi e descrivere altre operazioni.
26. LDP ~ Tipica struttura Intranet
http://www.regesta.com/2014/10/06/4-ore-di-rdf/
27. LDP ~ Linked Data Platform
http://www.regesta.com/2014/10/06/4-ore-di-rdf/