Presentazione di Sergio Patano, Research & Consulting Manager di IDC Italia, tenuta all’IDC Big Data & Analytics Conference 2014 di Milano, il 18 Settembre 2014
Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
Offering - Business Intelligence: il nostro approccioXenesys
Non esiste una soluzione di Business Intelligence migliore in assoluto, non è neppure quella più costosa: scopri come gli specialisti di Datawarehouse, Corporate Performance Management, BI Analytics accompagnano le imprese in un percorso verso le nuove frontiere della Business Intelligence, per ottenere anche informazioni che scaturiscono dall'analisi stessa dei dati.
Presentazione di Sergio Patano, Research & Consulting Manager di IDC Italia, tenuta all’IDC Big Data & Analytics Conference 2014 di Milano, il 18 Settembre 2014
Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
Offering - Business Intelligence: il nostro approccioXenesys
Non esiste una soluzione di Business Intelligence migliore in assoluto, non è neppure quella più costosa: scopri come gli specialisti di Datawarehouse, Corporate Performance Management, BI Analytics accompagnano le imprese in un percorso verso le nuove frontiere della Business Intelligence, per ottenere anche informazioni che scaturiscono dall'analisi stessa dei dati.
Business Intelligence & Big Data per il RetailRoberto Butinar
Innovazione e cambiamento stanno interessando in modo crescente tutte le forme di interazione sociale, e quindi economica.
L'industria del retail probabilmente è una di quelle maggiormente coinvolte. L'esplosione delle informazioni disponibili per i potenziali consumatori fanno il paio con il moltiplicarsi delle opzioni e canali di acquisto.
Nonostante la crisi economica, gli acquisti online continuano a crescere in tutto il mondo a doppia cifra, ed alcune aree in particolare, tra cui l'Italia, il potenziale di crescita per i prossimi anni è ancora più forte.
Il ruolo del governo dell'informazione, in questo processo di radicale trasformazione, risulta essenziale. Non solo per l'acquisto effettuato online, ma per l'acquisto più tradizionale effettuato in negozio.
Multicanalità significa che gli utenti utilizzano diversi dispositivi per informarsi, interagire fra di loro e con noi, ed eventualmente completare l'acquisto. Significa quindi maggiore complessità, più interazioni da monitorare, clienti più informati, più concorrenza e maggiore pressione sui prezzi.
Non è possibile affrontare questa complessità crescente senza un adeguato supporto informativo. E' qui che entrano in gioco la Business Intelligence e il Big Data Management.
In TARGIT abbiamo una lunga e consolidata esperienza in ambito Retail. Sappiamo inoltre quanto sia importante che le informazioni possano essere fruite in modo semplice ed immediato. Siano tradizionali, o Big Data.
Per questa ragione abbiamo voluto rivoluzionare l'interazione fra utenti ed informazioni. Con TARGIT è sufficiente chiedere ciò di cui si ha bisogno, e il sistema si preoccuperà di comprendere quali informazioni sono realmente quelle di nostro interesse, imparando dalle nostre abitudini e da quelle dei nostri colleghi. Maggiore sarà l'utilizzo di TARGIT, più precise e pertinenti saranno le risposte che il sistema sarà in grado di restituirci.
La presentazione offre una panoramica sul mercato Retail, sulle sue evoluzioni recenti e un approfondimento sulle soluzioni offerte da TARGIT.
Buona lettura.
Stefano Gatti - Antonello Mantuano - Si metterà a confronto l'evoluzione degli ultimi anni dei sistemi di persistenza dati, in particolare quelli NoSQL, con le crescenti esigenze di analizzarne tipologie molto diverse anche in modo nuovo per creare innovazione nei prodotti che il mercato chiede ad una "data-driven company", quale Cerved. Si cercherà, con casi concreti, di evidenziare il valore tecnico e di business. Infine verrà sottolineato come il poliglottismo tecnologico indotto da questo processo comporti un valore ma anche un innalzamento della complessità dei processi e dei sistemi all'interno delle organizzazioni.
Knowledge graph: il percorso di Cerved per connettere i Big Data - Diego SanvitoData Driven Innovation
In uno scenario in cui le fonti dati, all'interno e all'esterno dei confini delle organizzazioni, stanno crescendo esponenzialmente sia in quantità che in tipologia, la costruzione di un knowledge graph rappresenta una via interessante per connettere i dati, superando i silos e creando valore per gli utilizzatori finali. Partendo da esperienze sul campo che hanno portato una start-up a lavorare con una azienda più consolidata si esploreranno casi d'uso concreti che vanno da prodotti consolidati a esperienze più innovative nate anche all'interno di team di datascientist.
Partendo dai contenuti e dagli esempi proposti da Viktor Mayer-Schönberger e Kenneth Cukier nel loro libro "Big Data - Una rivoluzione che trasformerà il nostro modo di vivere" (edito da Garzanti) la presentazione introduce al tema del BigData per poi concentrarsi su come la pubblica amministrazione possa far proprio questo nuovo modo di progettare ed implementare le politiche pubbliche e i servizi ai cittadini.
Edward William Gnudi - Indipendentemente dal percorso intrapreso da ogni realtà, le chiavi principali di successo per la Data Governance sono trasparenza e chiarezza del processo e degli asset coinvolti. Con l’avvento dei Big Data i classici framework proposti non bastano più. Occorrono standard e best-practice che rendano chiaro e accessibile un modello unico che centralizzi la gestione di Data Warehouse e Data Lake. Verrà presentato un caso reale che dimostra come la modellazione dei dati ha permesso a tutti i Business User di comprendere l'intero patrimonio informativo a disposizione.
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Breve panoramica sui Big Data, per chi ne ha solo sentito parlare ma non sa bene cosa siano.
La presentazione non è pensata per un pubblico tecnico e segue questa agenda:
1. definizione di Big Data delle 3 V
2. esempi di progetti realmente effettuati
3. tecnologie
4. riflessioni varie
This document presents a business plan for "Petals Limited", a new company introducing chicken biscuits to the Pakistani market. The company is formed by three partners with a 10 million rupee budget. It aims to become a market leader in 5 years by developing a popular chicken biscuit brand. The plan describes the company, product details, a marketing strategy covering price, placement, promotion, and competitors. It also presents budgets, objectives, and a PEST analysis of opportunities and threats in the biscuit industry.
Business Intelligence & Big Data per il RetailRoberto Butinar
Innovazione e cambiamento stanno interessando in modo crescente tutte le forme di interazione sociale, e quindi economica.
L'industria del retail probabilmente è una di quelle maggiormente coinvolte. L'esplosione delle informazioni disponibili per i potenziali consumatori fanno il paio con il moltiplicarsi delle opzioni e canali di acquisto.
Nonostante la crisi economica, gli acquisti online continuano a crescere in tutto il mondo a doppia cifra, ed alcune aree in particolare, tra cui l'Italia, il potenziale di crescita per i prossimi anni è ancora più forte.
Il ruolo del governo dell'informazione, in questo processo di radicale trasformazione, risulta essenziale. Non solo per l'acquisto effettuato online, ma per l'acquisto più tradizionale effettuato in negozio.
Multicanalità significa che gli utenti utilizzano diversi dispositivi per informarsi, interagire fra di loro e con noi, ed eventualmente completare l'acquisto. Significa quindi maggiore complessità, più interazioni da monitorare, clienti più informati, più concorrenza e maggiore pressione sui prezzi.
Non è possibile affrontare questa complessità crescente senza un adeguato supporto informativo. E' qui che entrano in gioco la Business Intelligence e il Big Data Management.
In TARGIT abbiamo una lunga e consolidata esperienza in ambito Retail. Sappiamo inoltre quanto sia importante che le informazioni possano essere fruite in modo semplice ed immediato. Siano tradizionali, o Big Data.
Per questa ragione abbiamo voluto rivoluzionare l'interazione fra utenti ed informazioni. Con TARGIT è sufficiente chiedere ciò di cui si ha bisogno, e il sistema si preoccuperà di comprendere quali informazioni sono realmente quelle di nostro interesse, imparando dalle nostre abitudini e da quelle dei nostri colleghi. Maggiore sarà l'utilizzo di TARGIT, più precise e pertinenti saranno le risposte che il sistema sarà in grado di restituirci.
La presentazione offre una panoramica sul mercato Retail, sulle sue evoluzioni recenti e un approfondimento sulle soluzioni offerte da TARGIT.
Buona lettura.
Stefano Gatti - Antonello Mantuano - Si metterà a confronto l'evoluzione degli ultimi anni dei sistemi di persistenza dati, in particolare quelli NoSQL, con le crescenti esigenze di analizzarne tipologie molto diverse anche in modo nuovo per creare innovazione nei prodotti che il mercato chiede ad una "data-driven company", quale Cerved. Si cercherà, con casi concreti, di evidenziare il valore tecnico e di business. Infine verrà sottolineato come il poliglottismo tecnologico indotto da questo processo comporti un valore ma anche un innalzamento della complessità dei processi e dei sistemi all'interno delle organizzazioni.
Knowledge graph: il percorso di Cerved per connettere i Big Data - Diego SanvitoData Driven Innovation
In uno scenario in cui le fonti dati, all'interno e all'esterno dei confini delle organizzazioni, stanno crescendo esponenzialmente sia in quantità che in tipologia, la costruzione di un knowledge graph rappresenta una via interessante per connettere i dati, superando i silos e creando valore per gli utilizzatori finali. Partendo da esperienze sul campo che hanno portato una start-up a lavorare con una azienda più consolidata si esploreranno casi d'uso concreti che vanno da prodotti consolidati a esperienze più innovative nate anche all'interno di team di datascientist.
Partendo dai contenuti e dagli esempi proposti da Viktor Mayer-Schönberger e Kenneth Cukier nel loro libro "Big Data - Una rivoluzione che trasformerà il nostro modo di vivere" (edito da Garzanti) la presentazione introduce al tema del BigData per poi concentrarsi su come la pubblica amministrazione possa far proprio questo nuovo modo di progettare ed implementare le politiche pubbliche e i servizi ai cittadini.
Edward William Gnudi - Indipendentemente dal percorso intrapreso da ogni realtà, le chiavi principali di successo per la Data Governance sono trasparenza e chiarezza del processo e degli asset coinvolti. Con l’avvento dei Big Data i classici framework proposti non bastano più. Occorrono standard e best-practice che rendano chiaro e accessibile un modello unico che centralizzi la gestione di Data Warehouse e Data Lake. Verrà presentato un caso reale che dimostra come la modellazione dei dati ha permesso a tutti i Business User di comprendere l'intero patrimonio informativo a disposizione.
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Breve panoramica sui Big Data, per chi ne ha solo sentito parlare ma non sa bene cosa siano.
La presentazione non è pensata per un pubblico tecnico e segue questa agenda:
1. definizione di Big Data delle 3 V
2. esempi di progetti realmente effettuati
3. tecnologie
4. riflessioni varie
This document presents a business plan for "Petals Limited", a new company introducing chicken biscuits to the Pakistani market. The company is formed by three partners with a 10 million rupee budget. It aims to become a market leader in 5 years by developing a popular chicken biscuit brand. The plan describes the company, product details, a marketing strategy covering price, placement, promotion, and competitors. It also presents budgets, objectives, and a PEST analysis of opportunities and threats in the biscuit industry.
Startup - kiire kasvu etalon. Kuidas startupina edukalt toimida?
* Sea eesmärgid, ootused ja raamid
* Kiida rohkem
* Tähista ka väikeseid võite
* Ühtsuses peitub jõud
* Testi ennast: https://leadsmarter.co
El síndrome de ovario poliquístico (SOP) es un trastorno endocrino-metabólico frecuente que se caracteriza por irregularidades menstruales, manifestaciones de hiperandrogenismo y ovarios poliquísticos. El diagnóstico requiere la presencia de al menos dos de estas tres características luego de excluir otras causas. El SOP se asocia a riesgos reproductivos, metabólicos y oncológicos, por lo que es importante el diagnóstico y tratamiento oportunos de las pacientes.
1. Do not assume that litigation is the only path to divorce - there are alternative options like mediation or collaborative lawyering that can help couples work out agreements without going to court.
2. Emptying joint bank accounts or filing false charges against your spouse will only ignite conflict and damage the divorce process.
3. Trashing your spouse to friends, family, or on social media will hurt you in court proceedings and damage your relationship with your children long-term. Keep private matters private.
Rossi Chocolate is a Swiss chocolate company that has been operating in Turkey for 14 years. In June 2014, more than 20 children in Izmir became ill after eating Rossi's new Milky chocolate product. An investigation found the temperature control system on one section of a delivery truck malfunctioned, causing spoilage of 100 Milky bars. Rossi enacted its crisis management plan, forming a crisis team to immediately recall the affected products, issue a public statement apologizing for the incident and pledging to pay medical costs, and announce system changes to prevent future issues.
ECRUITMENT SOLUTION provides bulk ieee projects to its regular clients and satisfies all their requirements on time, Also it provides 24/7 supports to all its clients in delivering the resources which is including source code delavery,Documents delivery,Algorithms delivery etc...,ECRUITMENT SOLUTIONS is also having around 100 clinets throughout India and across the World.
ieee 2014-15 projects titles for java and dotnetChandruSimbu
ECRUITMENT SOLUTION provides bulk ieee projects to its regular clients and satisfies all their requirements on time, Also it provides 24/7 supports to all its clients in delivering the resources which is including source code delavery,Documents delivery,Algorithms delivery etc...,ECRUITMENT SOLUTIONS is also having around 100 clinets throughout India and across the World.
NoEmployees story continues as we explain what has happened to us in a years time exercising NoEmployees way of running a company.
It is still and experiment, and we explain the ups and downs, and encourage people to do things differently: Run organizations as experiments.
Cross Border VC Syndication. Tibet PresentationDaniel S. Hain
- The document discusses cross-border venture capital syndication between countries.
- It presents hypotheses that geographical, cultural, and institutional distance negatively impact cross-border investments, but this effect is lessened when investments are syndicated with a domestic venture capitalist.
- Institutional and relational trust are hypothesized to positively influence investments by diminishing the negative effects of distance, especially for emerging economies.
The document discusses the historic efforts of The Braj Foundation to restore heritage sites in Braj, India. It summarizes their work restoring over 46 water bodies (kunds) that had fallen into disrepair, through community mobilization, planning, de-silting, construction and beautification. Examples of restored kunds like Brahma Kund and Vrishbhanu Kund are shown before and after restoration. The Foundation also aims to revive Braj's 137 sacred forests and protect and reforest the region's hills, restoring Braj's pristine natural environment.
Coaching teams in Creative Problem Solving v.2Flowa Oy
This document provides instructions and materials for coaching teams in creative problem solving. It begins with an introduction to the presenter and includes exercises to practice three creativity tools: SCAMBER, 9 Windows, and Contradiction Analysis. Participants are guided through examples applying each tool to hypothetical problems to generate new ideas and solutions. The document emphasizes practicing the creative thinking process over immediately finding solutions. It aims to leave participants with at least one creativity tool they can apply to their own work within two weeks.
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudDenodo
Watch full webinar here: https://bit.ly/2FPwmfN
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...Denodo
Watch full webinar here: https://bit.ly/3m9tIkF
I dati sono il carburante della conoscenza, ma la loro mole fa emergere nuove sfide:
- come integrare dati eterogenei;
- come metterli a disposizione a chi ne ha bisogno;
- come renderne esplicito il significato.
Il Cloud, inoltre, rende il dato ubiquo e distribuito, amplificando la complessità e costringendoci a semplificarla, adottando un approccio basato sulla Data Virtualization.
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...Denodo
Watch full webinar here: https://bit.ly/40l9A3C
L’approccio logico alla gestione dei dati sta rapidamente guadagnando popolarità tra le aziende pubbliche e private. Per rispondere alle nuove logiche di business, le organizzazioni devono essere in grado di gestire, accedere, integrare e utilizzare i dati in modo semplice, sicuro ed efficace, indipendentemente dalla loro origine o formato.
In questo webinar, esploreremo come un approccio logico alla gestione dei dati, basato sulla virtualizzazione dei dati, può aiutare le organizzazioni a superare le sfide relative alla gestione e integrazione del patrimonio informativo, migliorare l'analisi dei dati e accelerare la delivery dei dati e il processo di digitalizzazione.
Discuteremo anche i casi d'uso comuni come Real-Time Analytics, Data Science, Logical Data Fabric, Data Democratization, 360 Customer View e Hybrid/Multi Cloud Data Integration, e come le organizzazioni possono utilizzare questo moderno approccio per trarre il massimo valore dai loro dati.
Inoltre, condivideremo esempi di successo di organizzazioni che hanno già implementato una gestione logica del patrimonio informativo aziendale con la virtualizzazione dei dati.
Intervento a cura di Paolo De Rosa, Responsabile Cloud & Data Center, nel corso dell'evento "Completiamo insieme il sistema operativo del Paese", organizzato a Roma il 2 luglio 2019 dal Team per la Trasformazione Digitale per condividere visione, strumenti e obiettivi del processo di digitalizzazione, con i partner tecnologici della Pubblica Amministrazione.
A seguire interventi di Allegra Bandinellli (Thoughtworks) e Andrea Tironi (Consorzio.IT).
Watch full webinar here: https://bit.ly/2MAlOED
In un’era sempre più dominata dal cloud computing, dall’AI e dall’analisi avanzata, può sembrare per lo meno anacronistico che molte organizzazioni facciano ancora affidamento ad architetture di dati costruite prima della fine del secolo.
Fortunatamente questo scenario sta subendo un cambiamento repentino con l’adozione di nuove tecnologie di integrazione dati, come la virtualizzazione dei dati, che forniscono un livello logico, in tempo reale e sicuro di accesso ai dati aziendali. Le diverse sorgenti dati non devono più essere trasferite fisicamente in un nuovo repositorio e trasformate, prima di essere utilizzate dall’azienda. E’ per questo che la virtualizzazione dei dati soddisfa le esigenze di trasformazione dell’architettura e permette la costruzione di un Data Fabric aziendale.
In questa sessione parleremo di:
-Cos'è la virtualizzazione dei dati;
- Come differisce da altre forme di integrazione a livello Enterprise;
- Casi d’uso della Virtualizzazione dei dati: Business Intelligence, Data Science, democratizzazione dei dati, Master Data Management, Dati distribuiti
- Perché la virtualizzazione dei dati si sta espandendo dentro le organizzazioni in Italia;
Anno Accademico 2015
2015-2016
corso di Economia e Organizzazione Aziendale
Ingegneria Informatica (Laurea Mag.) 2o Anno (Secondo S.)
LEZIONE INTRODUTTIVA – VERSO L’ECONOMIA
DIGITALE – I TEMI DELLA TRASFORMAZIONE
07 Marzo 2016 – dalle ore 8.30 alle 10.30
AULA C2A – DIETI
Presentazione: La prima lezione del corso di Economia e Organizzazione Aziendale per
Ingegneria Informatica (Laurea Mag.) 2o Anno (Secondo S.) introduce i temi della trasformazione
in atto per effetto dei cambiamenti delle tecnologie della comunicazione e dell’informazione (ICT) e
presenta possibili scenari dell’economia digitale. La lezione è in forma di evento aperto ed ospita
ma
gli interventi di soggetti che operano nel mercato sul fronte della trasformazione.
PROGRAMMA
08,30
08,40
09,00
09,20
09,40
10,00
10,20
Carlo Sansone Coordinatore del CdL in Ingegneria Informatica
L’Università e la trasformazione digitale
Luigi Bianco – responsabile FEDERMANAGER per l’AGENDA DIGITALE
Le sfide del Management per la trasformazione digitale
Marco Lombardo – INDUSTRIA ITALIANA DEL SOFTWARE LIBERO – “Didotech”
Gli Agenti del mercato dopo la TRASFORMAZIONE DIGITALE
Fabio Cecaro, Presidente EUROCLOUD Italy
Il CLOUD per le Piccole e Medie Imprese
Francesco Castagna – Amministratore Delegato di SMS Engineering
Domanda e offerta di servizi per la trasformazione digitale – agenda digitale aziendale
Bruno Esposito – FORUM della RESPONSABILITÀ SOCIALE IN CAMPANIA
La responsabilità digitale per un’economia sostenibile
Valerio Teta docente incaricato del corso
Perché la DISTRIBUZIONE DELLE APPLICAZIONI conta nell'economia digitaleCitrix
Sviluppate applicazioni. Distribuite applicazioni. Ma quanto siete bravi a distribuire le applicazioni?
Scoprite perché una distribuzione delle applicazioni di alta qualità conta e in che modo le organizzazioni affrontano tale sfida.
L'internet delle Cose, sebbene conclamato e discusso molto di frequente, accorpa al suo interno un coacervo di tecnologie ancora poco conosciute e applicate dalle aziende manifatturiere. Vediamo quindi i possibili ambiti applicativi, i benefici e gli elementi ostativi alla sua diffusione.
Data Virtualization per una Multi-Cloud Data Integration senza barriere né co...Denodo
Watch full webinar here: https://bit.ly/3vYHaNQ
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
Presentazione per Smau. Le slide sono una sintesi del workshop presentato a Smau Milano 2016. n un mondo IT connesso con oggetti che
dialogano tra di loro, IoT, device sempre online,
un aspetto fondamentale è rappresentato dalla nuova generazione di gestionali in cloud.
1. CLOUD & BIG DATA
Diapositive a cura di: Lorenzo Nardo e Manuel Boscolo
2. CLOUD ALLA RISCOSSA!
Negli ultimi anni tutte le maggiori aziende, i
social network e il mobile per una maggiore
praticità e risparmio di risorse proprie, si
affidano ai servizi di Cloud Computing.
Ed ormai tutto ciò
che carichiamo nel
web viene assorbito
nella nuvola.
3. CLOUD BIG DATA
La simbiosi di Big Data e Cloud Computing è
inequivocabile, i dati e tutti i contenuti sensibili
per le esigenze di chi ne richiede l’analisi oramai
sono pressochè
interamente ospitate
nella nuvola che
ora ha un valore
inestimabile.
6. CLOUD COMPUTING
Cloud computing: è un insieme di tecnologie
informatiche che permettono l'utilizzo di
risorse, i data service e le funzionalità offerte
in remoto.
7. CARATTERISTICHE CHIAVE
On-demand self-
service
Broad
network
access
Resourc
e
pooling
Rapid
elasticity
Measure
d Service
Il consumatore può unilateralmente disporre di capacità di calcolo.
Le risorse di calcolo sono messe al servizio di tutti i consumatori.
I Sistemi Cloud automaticamente controllano e ottimizzano le
risorse.
Le capacità sono disponibili in rete e sono accessibili tramite
meccanismi standard.
Le risorse possono essere rapidamente ed elasticamente
incrementate per scalare la potenza e rapidamente ed elasticamente
liberate per rilasciarla.
8. TRE ATTORI PRINCIPALI
• Fornitore di servizi (il provider): offre servizi
(server virtuali, storage, applicazioni complete)
generalmente secondo un modello "pay-per-use“
o free.
• Cliente amministratore: sceglie e configura i
servizi offerti dal fornitore, generalmente
offrendo un valore aggiunto come ad esempio
applicazioni software.
• Cliente finale: utilizza i servizi opportunamente
configurati dal cliente amministratore.
(In determinati casi d'uso il cliente amministratore e il
cliente finale possono coincidere)
9. 3 LIVELLI DI SERVIZI
Application
Platform
Infrastructure
SaaS (Software as a Service)
PaaS (Platform as a Service)
Iaas (Infrastructure as a Service)
12. VANTAGGI PER L’UTENTE
• Nessun software da scaricare e installare sul proprio
computer.
• Non si deve acquistare una licenza software. Ci si abbona
al
servizio, che spesso è gratuito.
• Nessuna necessità di upgrade del software quando
vengono
aggiunte nuove funzioni o eliminati problemi esistenti.
• Si può accedere ai propri documenti da ogni computer
connesso
in rete.
• È possibile condividere i documenti con altri utenti, senza
bisogno
di un proprio server
• Nessun problema in caso di crash del proprio computer: i
documenti sono al sicuro sul server.
13. SVANTAGGI PER L’UTENTE
• È necessaria una connessione internet con banda
adeguata.
• Data security, tutti i dati risiedono su un server
remoto, di cui
non si ha il controllo (anche se si possono effettuare
regolari backup).
• Data privacy, i dati sono visibili ed utilizzabili da terzi
che non sempre agisco in buona fede.
• Completezza funzionale. Attualmente, le funzioni
fornite dalle applicazioni “cloud” sono meno complete
di quelle fornite dai software tradizionali.
• Non è agevole lavorare off-line, per ricevere e
trasmettere le modifiche occorre essere connessi.
14. VANTAGGI PER LE AZIENDE
riduzione dei costi
• Eliminazione/riduzione delle infrastrutture
software/hardware e dei costi del personale per
la gestione dei sistemi.
• Riduzione/eliminazione dei costi fissi
• Scalabilità dei servizi, tutto quello che
serve, quando serve, solo se serve.
• Costi “pay-per-use”
16. migliori servizi
• Servizi sviluppati e gestiti dai migliori
professionisti, con le migliori competenze.
• Servizi sempre aggiornati e in continua evoluzione.
• Servizi altamente flessibili.
VANTAGGI PER LE AZIENDE
17. SVANTAGGI PER LE AZIENDE
• I dati risiedono su un server remoto, di cui si ha
scarso controllo, ne conseguono possibili problemi
d’integrità dei dati. (es. caso Amazon)
• Più alto rischio di furto di dati e informazioni, non
sempre tutelata della privacy. (es. Playstation
Network)
• Servizi standardizzati, non sempre soddisfano a
pieno le esigenze aziendali.
• Non è agevole lavorare off-line, per ricevere e
trasmettere le modifiche occorre essere connessi.
19. OBIETTIVI e SFIDE PER IL FUTURO
• Incremento dei sistemi di sicurezza per la tutela
della privacy e per la salvaguardia dei dati.
• Incremento delle collaborazioni tra le diverse
aziende fornitrici di servizi “Cloud”.
• Incremento dei servizi in termini di quantità e
qualità (velocità, affidabilità, grado di
personalizzazione).
• Crescita di nuove competenze.
• Stabilire “regole” e “codici” comuni, adottabili
tra i diversi produttori.
22. “BIGDATA”
Definizione:
Big data è il termine per descrivere una raccolta
di dataset così grande e complessa da richiedere
strumenti differenti da quelli tradizionali, in tutte
le fasi del processo:
dall‘acquisizione, alla curation, passando per
condivisione, analisi e visualizzazione.
Da Wikipedia, l'enciclopedia libera.
23. Terminologia
• Un dataset (o data set) è una collezione
di dati.
• Il Datacenter o Centro Elaborazione
Dati (CED) è l'unità organizzativa che coordina
e mantiene le
apparecchiature
ed i servizi di
gestione dei
dati.
24. Terminologia
• Data curation: è la gestione dei dati al fine di
scoprire, recuperare, mantenere, aggiungere
valore, permettere il riutilizzo dei
dati, garantendone
contemporaneamente
l'autenticazione, l'archiviazione, la gestione e la
preservazione.
26. Perché utilizzare i Big Data?
Il motivo principale è la possibilità di effettuare
Business Analytics in contesti dove oggi non sarebbe
possibile o lo sarebbe con tempi e costi inaccettabili.
Si pensi poi a Facebook,
Linkedin, Twitter:
alcune tecnologie
Big Data si sono sviluppate
proprio in ambito
social network.
E il motivo è piuttosto evidente,
visto che i Big Data applicati ai
social mettono nelle mani
dei dipartimenti marketing
potenti strumenti di analisi
su potenziali clienti finali.
27. Ambiti di utilizzo
• Sicurezza (lotta alla criminalità, prevenzione di
disastri).
• Scienza (meteorologia, medicina).
• Tecniche di marketing (individuazione dei
trend di vendita in particolari contesti).
• Rilevazioni real-time (monitoraggi di sistemi
complessi).
29. Una crescita esponenziale
L’utilizzo sempre più diffuso dei social media, e degli
smartphones che raccolgono e generano dati
costantemente, il crescente uso di Internet, così come
l’utilizzo di sensori che misurano e monitorano ogni cosa, fa
sì che il volume dei dati prodotti in tutto il mondo stia
crescendo in modo vertiginoso.
Il 90% dei dati oggi esistenti sono stati generati negli ultimi 2
anni. Il ritmo con cui queste informazioni sono prodotte è
talmente alto che ogni due giorni è creato un volume di dati
pari alla quantità di informazioni generate dall’umanità
intera fino al 2003.
30. Paradigma delle “V”
• VOLUME : quantità dei dati trattati
• VELOCITA’ : l’estrazione di queste informazioni deve
avvenire velocemente, i dati devono essere utilizzabili
prima che diventino inutili
• VARIETA’: i dati da trattare sono ETEROGENEI
(testo, video, ricerche web, transazioni
finanziarie, pagamenti con carta di credito, etc.)
• VARIABILITA’: (Valore/Veridicità) occorre
contestualizzare il dato (da che ambito proviene? è
indispensabile filtrarlo oppure no?)
• VIRALITA’: i Big Data stanno crescendo in maniera
esponenziale nella rete e si espandono come un vero e
proprio virus.
32. BIG DATA & PRIVACY
Enormi banche dati, che possono anche essere
istituzionali, raccolgono un’infinità di dati sensibili
che riguardano gli utenti della rete.
La semplice trasformazione
in forma anonima delle
informazioni raccolte non
garantisce la loro protezione
quando vengono elaborate,
sono quindi allo studio
sistemi alternativi.
33. Questi sistemi alternativi in genere fanno riferimento alla
cosiddetta crittografia omomorfica che consente di eseguire
calcoli su dati cifrati senza prima decrittarli.
La IBM sostiene che
l'informatico Craig Gentry
aveva sviluppato un sistema
pratico, completamente
omomorfico, già nel 2009,
ma i critici hanno detto che la
tecnologia era troppo complessa, lenta e poco pratica per un uso
effettivo sul cloud.
Siamo quindi ancora in attesa…
BIG DATA & PRIVACY
34. BIG DATA & PRIVACY
A volte, infatti, le informazione possono trapelare
ed essere usate al di fuori del loro ambito
specifico come nello scandalo denominato
“Datagate”…
Vedi : http://it.wikipedia.org/wiki/Datagate
36. CHI SFRUTTA I BIG DATA?
Si può cominciare a parlare di Big Data quando la mole di
dati presa in considerazione è nell’ordine degli
Zettabyte (miliardi di Terabyte).
Da considerare sono anche
le agenzie governative come
l’NSA(National Security Agency).
37. Ambito italiano
In Italia, quando si parla di “Big Data”, in
realtà si intendono Business Intelligence
e Data Mining, data la ridotta quantità di
dati da analizzare.
Esempi:
• L’ultima edizione di Sanremo, 150 mila tweet durante la
finale; un volume che può essere racchiuso in 77 MB (Foglio
Excel)
• Analisi politiche sui tweet del corpo elettorale italiano (3,5M
di italiani hanno utilizzato Twitter durante la campagna
elettorale) svolte con strumenti tradizionali.
39. CONCLUSIONI
La grande sfida, per le aziende che stanno investendo
sui big data, sembra essere la
• capacità di formulare domande intelligenti
e
• concorrere alla nascita di competenze in
grado di gestire le risposte.
40. La figura del data scientist sarà centrale nei prossimi
anni.
Sia matematico che
Informatico, deve capire
di statistica,
saper usare un foglio excel
ed aiutare l’azienda per la
quale lavora a interpretare il presente per prevedere il
prossimo futuro.
Non è una figura mistica ma un nuovo professionista, lo
“scienziato dei dati”.
CONCLUSIONI
41. L'aumento esponenziale della conoscenza porta
alla “preveggenza” e dalla somma delle parti si
può comprendere il tutto; ma solo l’uomo può
formulare delle ipotesi.
Chi meglio di altri riuscirà ad estrapolare e
plasmare questa enorme quantità di dati a
disposizione avrà un posto
privilegiato nel mercato di
domani.
CONCLUSIONI