• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Gartner
 

Gartner

on

  • 425 views

Efficienza e ottimizzazione diventano native nello storage IBM

Efficienza e ottimizzazione diventano native nello storage IBM

Statistics

Views

Total Views
425
Views on SlideShare
425
Embed Views
0

Actions

Likes
0
Downloads
2
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

CC Attribution-NonCommercial LicenseCC Attribution-NonCommercial License

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Gartner Gartner Document Transcript

    • EFFICIENZA E OTTIMIZZAZIONEDIVENTANO NATIVENELLO STORAGE IBMFeaturing research from
    • NELL’EFFICIENZA LA CHIAVE PER GESTIRE I DATI Crescono di pari passo le fonti e la quantità di informazioni da analizzare e avere a disposizione. Di converso, stagnano o si riducono i budget a disposizione dell’IT. La quadratura del cerchio si trova nell’adozione di uno storage capace di rendere disponibile ciò che serve in modo autonomo e dinamico. P er chi si occupa di storage, la sfida di questo periodo congiunturale appare legata soprat- tutto alla necessità di gestire e archiviare quanti- tà crescenti di dati ma allo stesso tempo, erogare servizi su standard qualitativi più elevati e tenere i costi sotto controllo. Il punto di partenza di ogni riflessione rimanda inevitabilmente al concetto di Big Data, ovvero alla moltiplicazione senza sosta di dati da elabo- rare, che arrivano dalle fonti più disparate. IBM stima che il 90% dei dati oggi in circolazione sia- no stati creati solo negli ultimi due anni. Mentre le fonti di divulgazione e circolazione resto su sistemi più economici. Più questi pro- delle informazioni continuano ad aumentare, il cessi vengono automatizzati e maggiore è l’effi- budget per l’IT in generale e lo storage di conse- cienza che si ottiene. Per non continuare ad ag- guenza non seguono certo lo stesso andamento. giungere capacità, inoltre, appare opportuno far leva sulla virtualizzazione e il cloud, ma anche Inevitabilmente, dunque, il modo per far fronte su tecnologie di compressione, deduplica, thin alle necessità del periodo passa per la ricerca provisioning e thin replication. di efficienza nell’infrastruttura. D’altra parte, le stime dicono che ancora oggi l’utilizzo della I recentissimi annunci, che puntano a realizzare capacità a disposizione si trova mediamente al una infrastruttura storage di nuova generazione, di sotto del 50%, soprattutto a causa dell’imple- integrano tutti questi aspetti, confermando il mentazione, sedimentata negli anni, di soluzioni concetto di disponibilità “by design” che già poco flessibili. contraddistingue la gamma di server PureSy- stems. La possibilità di preservare gli investi- Nella visione olistica di IBM, l’efficienza dello menti già effettuati, facendoli però convogliare storage si realizza assommando diversi elemen- in una logica votata alla ricerca costante dell’ef- ti. I dati devono trovarsi nel posto più indicato ficienza, in combinazione con la presenza nativa rispetto al loro livello di criticità o consultazio- di elementi di automazione e virtualizzazione, ne. Sui dispositivi ad alte prestazioni, certamen- consente alle aziende di essere già pronte ad af- te più costosi, è opportuno far risiedere solo ciò frontare anche le sfide che il mercato proporrà che riveste maggiore importanza, spostando il negli anni a venire.2
    • Dagli archivi Gartner:INFRASTRUTTURAINFORMATIVA E BIG DATAPANORAMICA SULLEPRINCIPALI INIZIATIVEIl concetto di infrastrutturainformativa deve evolversiper consentire alle impresedi gestire le informazioniin quanto prezioso assetaziendale, alla luce dei nuovimodelli di distribuzione deidati e delle sfide imposte dallacrescita esplosiva di questiultimi. Il presente documentodescrive i passi critici e gliostacoli da affrontare persuperare questa sfida.ANALISI mail, documenti, audio e video. Per adottare unL’infrastruttura informativa è costituita da un in- approccio strategico alla gestione delle informa-sieme di funzionalità tecnologiche per suppor- zioni che consideri i dati come asset da sfruttaretare obiettivi di gestione delle informazioni. Con per ottenere un vantaggio competitivo, è neces-il termine “Big Data” si fa riferimento a informa- saria un’infrastruttura informativa ben organiz-zioni caratterizzate da dimensioni estremamen- zata, agile ed efficace. Le tradizionali tecnologiete elevate, eterogeneità, complessità ed esigen- di gestione delle informazioni non sono in gradoze di elaborazione rapida. di far fronte all’esplosivo volume di dati etero- genei presenti in molte aziende. Il grande valo-L’approssimarsi di sfide incombenti è indicato re e le potenziali responsabilità che si celano indalle previsioni secondo le quali entro il 2015 i questi dati sta suscitando un nuovo interessedispositivi intelligenti nel mondo saranno 200 verso l’infrastruttura informativa. Le nuove ten-miliardi ed entro il 2020 il numero di dati invia- denze in tale infrastruttura cambieranno il modoti via Web ogni giorno sarà pari a 275 esabyte, di concentrare e distribuire tecnologie e com-nonché dal crescente desiderio di utilizzare e- petenze di gestione delle informazioni, con l’o- 3
    • biettivo di migliorare radicalmente l’efficacia in neità, complessità e velocità contribuiscono termini di costi, agilità, trasparenza di gestione e alla nascita di sfide impegnative in termini di uso degli asset informativi. gestione delle informazioni. • Verificare che vi siano competenze, ruoli e Fattori d’importanza dell’infrastruttura strutture organizzative adeguati per sfrutta- informativa e dei progetti basati sui Big re queste tendenze chiave. Infrastruttura in- Data: formativa e progetti basati sui Big Data non sono da ricondurre solo alla tecnologia, poi- A) Per i CIO ché un approccio esclusivamente tecnologi- co non garantisce alcun successo. I “Big Data” rappresentano per i CIO una stra- ordinaria opportunità per aggiungere valore GESTIONE DELL’INIZIATIVA all’attività aziendale attraverso il recupero di DI INFRASTRUTTURA INFORMATIVA dati analitici e l’identificazione di modelli dalla E DEI PROGETTI BASATI SUI BIG grande quantità di informazioni disponibili. Per DATA MEDIANTE QUESTO ottenere questo vantaggio, i CIO devono: APPROCCIO STRUTTURATO • Collaborare con i leader aziendali per iden- tificare le opportunità rilevanti e sviluppa- Strategia e pianificazione: redigere una bozza di re una visione condivisa sulle informazioni atto costitutivo in allineamento con gli obiettivi dell’impresa, tenendo conto delle fonti di in- aziendali con lo scopo di ottenere un consenso formazioni più recenti quali social network e sulla visione e sul compito alla base del progetto. tecnologie operative. Delineare l’ambito del progetto e definirne risor- • Indirizzare le proprie organizzazioni verso la se, budget e sistemi di governance. Integrare tut- modernizzazione dell’infrastruttura informati- to questo nei piani IT strategici e aziendali. va e l’allineamento di tecnologie e competen- ze di gestione delle informazioni per ottenere Creazione di una soluzione: definire l’architettura, una base coerente e agile per l’accesso, la di- la tecnologia e gli standard del progetto. Model- stribuzione e il controllo delle informazioni. lare i requisiti aziendali e descrivere nel dettaglio • Gestire l’infrastruttura informativa e i pro- le specifiche per la distribuzione della soluzione. getti basati sui Big Data come competenze Suggerire procedure per l’implementazione del e programmi continui invece che come pro- progetto. Definire i dettagli del processo e i criteri getti discreti a breve termine. I progetti basa- di calcolo dei risultati. Comunicare il piano. ti sui Big Data non possono essere conside- rati come avulsi dal lavoro di gestione delle Selezione della soluzione: impostare requisiti ed informazioni (e dell’infrastruttura correlata) emettere RFP. Analizzare le informazioni del mer- già in corso nell’azienda. cato. Valutare le opzioni di fornitori e provider di servizi. Scegliere tecnologie e fornitori/provider B) Per i Responsabili IT di servizi. Negoziare accordi sui livelli di servizio e contratti. La modernizzazione dell’infrastruttura informa- tiva e la preparazione a gestire progetti basati Implementazione: fornire personale e gestirne sui Big Data richiederanno ai responsabili IT di: l’implementazione. Coordinare la distribuzione • Valutare lacune e sovrapposizioni nelle tec- della soluzione. Creare l’ambiente di sviluppo e nologie di gestione delle informazioni e svi- eseguire test. Richiedere il feedback degli utenti. luppare un piano di razionalizzazione o di in- Monitorare i rischi. cremento delle capacità in sede. • Fissare gli obiettivi di una visione strategica Azione ed evoluzione: realizzare e gestire l’im- per l’infrastruttura informativa attraverso uno plementazione. Effettuare analisi sulla base schema di funzionalità IT. I responsabili IT po- di feedback, rischi e cambiamenti dei requisiti tranno quindi realizzare una roadmap mirata aziendali. Misurare le prestazioni. Monitorarne a sostenere le esigenze informative in modo l’uso e la conformità. Sviluppare competenze e efficiente e indipendente dalle applicazioni. definire le prassi migliori per gli utenti. Perfezio- • Comprendere che con il termine “Big Data” nare i processi di governance. si fa riferimento a molto di più che a volumi di dati poiché dimensioni elevate, eteroge- Fonte Gartner: Ricerca G00214426, Ted Friedman, 22 July 20114
    • COME STA EVOLVENDOIL CICLO DI VITA DEI DATISecondo Giovanni di quanto già a disposizione e la definizione di percorsi cheCalvio, manager of tengano conto di quanto serveStorage Platform di oggi e, nei limiti del possibile,IBM Italia, le aziende anche di quanto potrà accade- re domani. In sintesi un’infra-oggi hanno la struttura che possa evolverenecessità stringente realmente in funzione delledi poter elaborare stesse esigenze. Della realtà presente sul mercato italianoe analizzare e dell’evoluzione tecnologicarapidamente in corso, abbiamo parlato conle informazioni Giovanni Calvio.necessarie per Quanto vale ancora oggiprendere decisioni l’assioma “storage = capa- cità” e nient’altro? In qua-strategiche. Uno le misura nella realtà delle e la qualità dei dati presenti e, soprattutto, occorre capi-storage razionalizzato aziende, soprattutto italia- re quali sono le nuove moda-ed efficiente deve ne, la risposta all’aumento lità che gli utenti usano per progressivo dei dati dasupportare questa gestire si concretizza sem- accedere alle informazioni. I driver di business, oggi, stan-esigenza primaria. plicemente nell’aggiunta no spingendo in tre direzioni: di nuovi dispositivi? potenziamento dell’agilità deiL a gestione del ciclo di vita delle informazioni è costru-ita ancora intorno a miti, come Non solo in Italia ma un po’ in tutto il mondo, spesso si con- sistemi, miglioramento della capacità di prendere decisioni in azienda e semplificazionela perdita progressiva di valore tinua a pensare che l’informa- delle operazioni ottimizzandonel tempo dei dati e la prevedi- zione perda valore nel tempo i workload presenti nel databilità delle modalità di accesso e soprattutto che le modalità center. Rendere più efficienteda parte degli utenti. La mag- utilizzate da ciascun utente per lo storage significa anche es-gior parte delle infrastrutture accedere all’informazione sia- sere pronti a soddisfare i futuristorage sono costruite intorno no sempre prevedibili. Questo bisogni, che crescono nel tem-a queste convinzioni, che in re- presupposto porta alla convin- po in maniera imprevedibile.altà oggi valgono assai poco. zione che periodicamente ciIl successo di un business si sia bisogno di nuova capacità Quali sono, rispetto allobasa sempre di più sulla capa- all’interno di un data center. scenario descritto, lecità di elaborare rapidamente i Invece, il futuro richiede un esigenze o le evoluzionidati, analizzarli, renderli dispo- approccio diverso allo storage. che accomunano le grandinibili come e quando servono. Sempre più, infatti, sono le ne- aziende e quelle medio-E in questo contesto è impor- cessità del business a guidare piccole e dove invecetante avere una corretta stra- il flusso delle informazioni e da si evidenziano ancorategia in campo tecnologico, qui nascono le opportunità le- importanti differenze?che non si limiti ad accumulare gate allo smarter computing, aldispositivi e capacità nei data cloud e alla business analytics. Ci sono oggi più analogie checenter, ma punti sulla raziona- Abbiamo sempre più bisogno elementi distintivi. Le esigen-lizzazione, l’utilizzo ottimizzato di conoscere meglio il valore ze e le sfide sono abbastanza 5
    • I passi da seguire per ottimizzare i carichi di lavoro Fonte: IBM simili anche se chiaramente utilizzando al meglio quanto è re Optimization, emerge che nei grandi data center ci sono già presente nei data center, in media il 50% della capacità maggiori risorse a disposizio- evitando in questo modo di storage presente in un data- ne e un budget in valore asso- acquisire capacità in eccesso. center è inutilizzato. luto più importante. Tuttavia, Quando si realizzano progetti in questo momento è dalla fa- di consolidamento, general- E allora da dove si può scia medio-bassa del mercato mente si affronta anche il tema partire per avere uno che arriva una maggiore spin- della data protection e data re- storage più efficiente? ta all’innovazione. Nelle realtà tention, utilizzando tecniche più piccole le strutture sono automatiche di ottimizzazione Sicuramente dal consolida- più snelle e la reattività è più della capacità. mento, anche se un primo vero immediata. Di conseguenza, i passo in direzione dell’efficien- budget limitati portano a indi- Quanto sono consapevoli za si compie con il tiering del viduare nuovi approcci e nuo- le imprese di possedere dato, rendendolo automatico ve soluzioni. capacità inutilizzata e di o utilizzandolo in modo nativo poter recuperare spazio all’interno dei sistemi. In que- Quali sono, in ambito senza dover aggiungere sto modo, si migliora l’efficien- storage, i fattori di nuovo storage? za su ogni singolo carico appli- maggior interesse per le cativo, evitando investimenti imprese? Per essere sinceri, ben poche onerosi, come nel caso dell’ac- aziende sono in grado di valu- quisto di dischi allo stato solido Certamente sono molto senti- tare correttamente i loro livelli per il solo obiettivo di aumen- ti i temi del consolidamento e di utilizzo delle risorse storage. tare le performance. A questo del miglioramento delle per- Per IBM invece si tratta di un si può aggiungere tutto quanto formance, soprattutto in dire- punto focale e la nostra offerta concerne la compressione del zione della velocità di accesso va proprio in questa direzione. dato, che può avvenire a mon- ai dati. Sta emergendo grande Da circa un paio di anni, IBM te dello storage primario e non interesse per le nuove modali- offre ai propri clienti la possi- ha impatti sulle applicazioni o tà di archiviazione dei dati, in bilità di effettuare un’analisi sui carichi di lavoro che stanno particolare per le tecnologie di precisa del livello di efficienza funzionando. Si prepara così il deduplica. La tendenza è quel- del proprio storage in modalità terreno per la virtualizzazione, la di virtualizzare l’infrastrut- completamente gratuita. Esa- un passaggio che prima o poi tura storage, cercando di pro- minando i risultati degli studi, occorre affrontare, soprattutto teggere gli investimenti fatti e chiamati Storage Infrastructu- per chi pensa a un orizzonte fu-6
    • Cloud e virtualizzazione si integrano nell’infrastruttura storageFonte: IBMturo orientato al cloud. Due anni immediate e legate alla qualità poi declinarle per le esigenzefa di Big Data non si parlava af- e al valore del dato e i budget delle piccole e medie imprese...fatto e oggi, invece, è un tema andranno mantenuti leggeri. In La nostra strategia per lo sto-all’ordine del giorno. Ma fra altri questo contesto IBM si sente in rage è chiara e coerente e ladue o tre anni cosa succederà? grado di dare risposte concrete ricchezza della nostra offertaPer questo è importante costru- nell’interesse del business delle può rispondere ad ogni tipo diire un’infrastruttura che serva imprese: parliamo di un’azien- esigenza, in funzione dei diver-a proteggere gli investimenti da che vanta oltre cent’anni di si budget. I dati ci confermanofatti anche in funzione di future esperienza nella soluzione di che il mercato ha compreso ilevoluzioni oggi sconosciute. Le problemi complessi, ha sempre valore delle nostre soluzioni erichieste degli utenti continue- investito considerevoli risorse apprezza la nostra coerenza e iranno ad aumentare e saranno economiche nella ricerca & svi- risultati che abbiamo ottenutosempre diverse, le decisioni di luppo, ha creato soluzioni avan- sul mercato italiano sono il no-business saranno sempre più zate per il mondo enterprise per stro fiore all’occhiello.Gli effetti dell’evoluzione verso Big Data e Business AnalyticsFonte: IBM 7
    • L’ORGANIZZAZIONE DELLO STORAGE CONTA PIÙ DELLA CAPACITÀ Per molto tempo, alla crescita dei dati in azienda è stata associata la progressiva aggiunta di nuovi dispositivi di memorizzazione. L’esplosione degli ultimi anni sta rendendo sempre più importante la definizione di una strategia basata sull’analisi di quanto circola in azienda e una gestione maggiormente proattiva. I crescenti volumi di informa- zioni da gestire in azienda, gli obblighi collegati ai temi indispensabili per le aziende che vogliono stare al passo, mentre i dati da trattare e ana- cerca IBM, in particolare con la memoria Racetrack, che com- bina i benefici degli hard drive della governance e complian- lizzare continuano a crescere. magnetici con quelli a stato ce normativa e la ridondanza In base a un’indagine condot- solido, per arrivare a poter ela- dei dati sono fattori che stanno ta da IBM nel 2011, il 57% dei borare imponenti quantità di spingendo i responsabili dei si- decision maker dell’IT hanno dati memorizzati in meno di un stemi informativi alla ricerca di ammesso che la propria orga- miliardesimo di secondo. soluzioni storage che, nell’ac- nizzazione ha bisogno di un cezione cara a IBM, potremmo nuovo approccio allo storage, I dati collegati definire “smart” ovvero intelli- , utile per gestire la crescita fu- ai carichi di lavoro genti, efficienti e flessibili allo tura. Big data, tuttavia, non signifi- stesso tempo. ca automaticamente “bigger La materia è peraltro com- storage”. Non ci può e non ci Non solo i CIO, ma anche i re- plessa e può essere esamina- deve essere una correlazione sponsabili di linee di business ta da differenti punti di vista. diretta fra la quantità di dati o il top management hanno Storicamente, si è portati a da gestire e i Terabyte a dispo- compreso come lo storage e la considerare il problema es- sizione in azienda, anche se il protezione dei dati siano com- senzialmente dal punto di vista costo dell’hardware è diminui- ponenti critiche di un’evolu- del supporto fisico. È da oltre to negli anni. Questo ha spinto zione tecnologica sempre più vent’anni che le nuove quanti- molte realtà ad ampliare sem- connessa alla gestione dei big tà di dati creati sono utilizzati plicemente la capacità, una data, al cloud computing e alle e veicolati in formato digitale. I scelta certamente più comoda applicazioni analitiche. Questi concetti di “disco” e “storage” rispetto a una seria analisi dei elementi fanno anche parte del sono stati per lungo tempo dati immagazzinati, quali di trend verso “l’internet delle considerati quasi sinonimi ed è questi sono critici e per quali cose”, ovvero il complesso di sulla capacità che si è concen- motivi, quali vadano conser- informazioni che risiede in un trata a lungo la ricerca. Dagli vati, dove e per quanto tempo. crescente numero di sensori obsoleti floppy e hard disk del- e microchip integrati negli og- le prime generazioni, si sono Proprio l’esplosione dei dati getti della nostra vita quotidia- succedute nel tempo nuove alla quale stiamo assistendo, na. L’obiettivo è rendere tutte tecnologie concentrate sulla invece, dovrebbe indurre le queste cose interconnesse, in densità dei supporti e l’acces- aziende a definire una strate- modo da ottenere un livello so ai dati in essi contenuti. gia storage basata sulla cura più alto di “intelligenza”. Ancora oggi una consistente dei dati e la loro gestione attenzione è dedicata a questi proattiva lungo tutto il ciclo L’efficienza dello storage e la aspetti, come dimostrano svi- di vita. La selezione, la valu- protezione dei dati critici sono luppi recenti proprio della ri- tazione e l’organizzazione dei8
    • dati sono elementi-chiave del costo più elevato, lasciando su modo il più possibile auto-lavoro necessario per rendere supporti come i nastri i dati da matizzato. Sfruttare al meglioi dati stessi accessibili e inter- conservare per motivi di leg- i dispositivi a bassa velocitàpretabili dalle persone giuste ge o di opportunità, ma poco abbassa i costi di utilizzo e diin azienda, in base a ruoli e pri- critici per il business ordinario consumo energetico, miglio-vilegi assegnati. dell’azienda. Laddove possibi- rando l’efficienza complessiva le, poi, occorre creare un mag- dell’infrastruttura. Allo stessoIl tema dei Big Data rappresen- gior livello di interazione fra modo, la deduplica può essereta al momento l’elefante nel- le informazioni, consolidando ormai considerata una modali-la stanza e le proiezioni degli silos preesistenti ma senza in- tà standardizzata per ridurre laanalisti parlano di un aumento cidere necessariamente sulla quantità di storage necessariadell’800% nei prossimi cinque capacità a disposizione, quindi per la gestione di grandi set dianni. Per affrontare corretta- attraverso processi di virtualiz- dati, al pari della compressio-mente la sfida, l’IT deve farsi zazione o fruizione in modalità ne, ben sapendo che la primasaggia e attivare una strategia cloud. si adatta in modo particolare aia livelli, necessaria per rendere file di testo, mentre la secondale informazioni più importanti L’utilizzo di una logica a livelli può essere impiegata per do-più accessibili delle altre. I dati è critica per cercare di ridurre cumenti audio e video.devono essere pertanto collo- i costi. Questo significa noncati nel posto giusto e collega- solo collocare, per esempio, Il disegno dello storage cometi ai carichi di lavoro essenziali i dati fondamentali su dispo- “sistema efficiente”, attraver-per il business aziendale. Quan- sitivi a stato solido e quelli so l’ottimizzazione dell’infra-to realmente utile e a maggiore non strutturati usati una volta struttura, l’automazione deitasso di fruizione va collocato sola su nastri, ma anche fare processi e il corretto calcolosu dispositivi a tecnologia più in modo che gli spostamen- del TCO rappresenta oggi unoavanzata, per garantire presta- ti verso l’alto o il basso della dei principali fattori di vantag-zioni ed efficienza, anche se a piramide possa avvenire in gio competitivo. 9
    • LA VISIONE DI IBM SI PROIETTA NEL FUTURO Messo a punto un concetto di infrastruttura storage che si basa sulle evoluzioni portate avanti negli ultimi anni, ma è già pronta ad accogliere le sfide che arriveranno in futuro. La chiave di volta sta nella disponibilità nativa di elementi come il right tiering, la virtualizzazione e tecniche evolute di compressione in tempo reale. I l mutevole mondo nel quale viviamo rende at- tuali in un dato momento problematiche che solo qualche tempo prima non venivano nem- Su queste basi, IBM ha costruito la propria visio- ne orientata a un’infrastruttura storage di nuova generazione, un concetto, prima ancora che un meno prese in considerazione. Il fenomeno della insieme di tecnologie, con focalizzazione sulle moltiplicazione dei dati da gestire per un’azien- aree di potenziale riduzione dei costi e la predi- da non è nuovo di per sé, ma temi come i Big sposizione “nativa” agli sviluppi che arriveranno Data o gli strumenti di analisi evoluta non erano anche a medio e lungo termine. L’ottimizzazione due anni fa al centro dell’attenzione dei manager dei carichi di lavoro esistenti, il miglioramento quanto lo sono oggi. Ed è possibile, se non pro- dell’agilità che passa attraverso l’adozione del babile, che fra due o tre anni qualche altro tema o cloud computing e l’integrazione fra Business stringente esigenza avrà spostato altrove il cen- Analytics e Big Data sono i business driver che tro dell’interesse. oggi maggiormente coinvolgono lo storage. Qualcosa di nuovo arriverà di certo a medio ter- Il tema della gestione dei dati è fra quelli che me- mine. Come prepararsi a questo percorso? glio si adattano a questo genere di riflessioni. La crescita dei volumi è un dato di fatto ampiamen- La risposta di IBM sta in una proposta infra- te documentato: il clima competitivo e le diffi- strutturale nella quale l’efficienza dello storage coltà congiunturali hanno elevato il valore delle è integrata a livello di progettazione, l’ottimiz- informazioni e le aspettative di manager e utenti zazione avviene in modo automatizzato, la vir- sulla capacità dell’IT di saper fornire quanto ser- tualizzazione è presente nativamente e tutti i ve per fare analisi e prendere decisioni in modo processi sono guidati da policy definite e stret- rapido ed efficace. Per chi governa i sistemi in- tamente legate alle applicazioni. In questo modo formativi, con budget essenzialmente piatti, la si ottiene una riduzione dello spazio fisico occu- necessità di gestire dati in continua crescita si pato fino all’80% e della complessità fino al 30%, scontra con una complessità infrastrutturale un aumento dell’utilizzo di quanto esistente fino dettata dalla presenza di architetture poco fles- al 30%, performance applicative triplicate e una sibili ereditate dal passato e dall’incremento del- diminuzione dei costi fino al 50%. la complessità derivata dallo sviluppo della vir- tualizzazione e dell’interconnessione di sistemi L’ottimizzazione dei carichi di lavoro esistenti può e dispositivi di varia natura. essere certamente un buon punto di partenza. Anche IBM ha preso da qui le mosse per pro- Un’evoluzione basata sui business driver porre già oggi alle aziende tecnologie e soluzioni Un approccio solo reattivo a queste sfide porta utili per aumentare l’efficienza dello storage. La inevitabilmente a una pura crescita dei costi, in gestione dinamica e distribuita multilivello (con particolare dello storage rispetto a quelli IT ge- IBM Easy Tier e Active Cloud Engine) e le tecnolo- nerali. Individuare le inefficienze e ottimizzare i gie di compressione, deduplica, thin provisioning processi può essere un buon punto di partenza, e thin replication consentono di muovere i dati ma le esigenze presenti e future richiedono un sui dispositivi più adatti in base alle esigenze di nuovo approccio allo storage, fatto di intelligen- utilizzo e consultazione, così come di ridurre lo za, efficienza e automazione. spazio fisico occupato.10
    • Gli ultimi aggiornamenti di gamma La nuova visione IBM per una infrastruttura storage di nuova generazione è corroborata da numerosi aggiornamenti nella gamma di prodotti. I prodotti della gamma IBM Storwize V7000 integrano la tecnologia Real-time Compression, che consente di utilizzare la compressione anche per i dati di produzione, a differenza di quanto accade nei prodotti concorrenti, che ne consentono l’uso solo per i dati a bassa attività. Sono stati aggiunti, inoltre, il supporto di Fibre Channel over Ethernet e del clustering a quattro vie. Le stesse migliorie sono state apportate alla versione 6.4 di SAN Volume Controller, che in più ag- giunge la migrazione trasparente dei volumi virtuali fra nodi SVC, in modo da massimizzare la fles- sibilità delle configurazioni. Tivoli Storage Productivity Center, invece, nella versione 5.1 offre una nuova interfaccia integrata Web-based, il supporto per la gestione basata su cloud dello storage, nonché del reporting e delle capacità analitiche basati su Cognos. A ciò si aggiunge la possibilità per le applicazioni di rilevare automaticamente e fare il provisioning dei file con dispositivi SONAS e Storwize V7000 Unified. Sono stati infine migliorati i sistemi storage DS3500 e DCS3700, per aziende piccole e medie che ne- cessitano di migliorare il tempo di backup e le prestazioni dello storage in caso di ripristino, cose che avvengono attraverso le tecnologie Enhanced FlashCopy e Adaptive Disk Pooling. Potenziato anche il supporto per ambienti server VMware in chiave di comunicazione fra gli host e gli array storage.Per chi sta valutando o sperimentando il cloud anche al di fuori dell’ambiente storage, in-computing, la virtualizzazione nativa e una ge- tegrandosi con le memorie dei server e constione policy-driven consentono di ottenere una l’operatività delle applicazioni di business).maggiore automazione nell’erogazione dei ser-vizi, il monitoraggio e l’ottimizzazione dinamica Lo storage recepiscein tempo reale delle capacità. Discorso analogo le policy aziendalipuò essere fatto per le esigenze di integrazione Le infrastrutture storage di nuova generazio-fra Business Analytics e Big Data. ne hanno le stesse caratteristiche delle so- luzioni IBM PureFlex System e SmartCloud,La visione per una infrastruttura storage di nuo- in grado cioè di fornire un’ottimizzazioneva generazione di IBM guarda però anche avan- integrata end-to-end, mentre l’IBM Storageti, alle sfide che arriveranno nei prossimi anni, Service Catalog stabilisce il legame fra i re-per far sì che già oggi l’infrastruttura storage sia quisiti-utente e le capacità dell’IT, aiutandopreparata ad accoglierle. L’efficienza, dunque, ad accrescere i livelli di servizi e la soddisfa-viene realizzata già nella progettazione, attra- zione dei clienti, controllando anche i costi.verso la presenza di caratteristiche avanzate epreinstallate, utili per eliminare complessità e I data center, infine, lavorano in base a spe-barriere all’ingresso. La tecnologia Real-time cifiche policy. Le performance applicative,Compression, integrata nativamente nei sistemi la schedulazione dei backup o i requisiti diStorwize V7000, e SAN Volume Controller sono conservazione dei dati sono personalizzati inesempi indirizzati alla riduzione degli spazi. base alle esigenze di ogni organizzazione. Una volta definite, le policy dovrebbero essere fa-Lo storage del futuro, poi, dovrà anche ottimiz- cili da replicare e automatizzare. Lo storagezarsi “da solo” in modo intelligente e automati- presente e futuro deve quindi essere policy-co, per allinearsi alla velocità del business, au- driven, ad esempio per migrare file inattivi sumentare il throughput delle applicazioni critiche dispositivi di livello più basso o replicare i datie supportare nuovi carichi, come i desktop vir- fra sistemi per velocizzare gli accessi. Tivolituali, per fare un esempio. IBM integra tecnolo- Storage Productivity Center e SAN Volumegie di auto-ottimizzazione come XIV (automazio- Controller lavorano insieme per implementa-ne del load balancing e della qualità del servizio) re una politica di “right tiering”, che fin qui erae Easy Tier (che andrà a estendere il supporto impossibile in un data center dinamico. 11
    • LE MOSSE PER OTTENERE UNO STORAGE EFFICIENTE Partendo dal concetto più esteso di smarter computing, IBM invita a spostare il focus dalla pura memorizzazione dei dati alla capacità di allocarli nel posto più utile per il loro reperimento usando la virtualizzazione per migliorare la capacità di provisioning dei sistemi già presenti nell’infrastruttura aziendale. N ell’It dei nostri giorni, niente appare più impor- tante del concetto di efficienza. Ci sono altre parole d’ordine ricorrenti, come riduzione dei costi, qualità del servizio, intel- ligenza. Oppure cloud compu- ting, virtualizzazione e conso- lidamento, se scendiamo sul terreno più pratico. Ma tutto discende dalla capacità di “fare le cose nel modo giusto” per , parafrasare il guru del mana- gement Peter Drucker, ovvero avere una visione d’assieme delle infrastrutture da gestire e organizzarle in modo da soddi- sfare le richieste che vengono dal top management di un’a- zienda o dalle linee di business, nell’invito a spostare il focus disposizione fino al doppio ri- cercando il miglioramento con- dalla semplice necessità di me- spetto alla norma, ottenendo tinuo e non la semplice crescita morizzare i dati alla capacità di anche una riduzione del 38% incontrollata delle risorse. allocarli nel posto più utile per nella capacità fisica richiesta il loro reperimento e utilizzo, e fino all’80% delle esigenze La trasformazione di questa recuperando spazio con una gestionali. Da questi valori, si visione in realtà passa per IBM compressione che può avveni- può facilmente comprendere attraverso il concetto di Smar- re anche in tempo reale e uti- come uno storage efficiente ter Computing, che non si ap- lizzando la virtualizzazione per generi vantaggio competitivo. plica solo allo storage, ma si migliorare la capacità di utiliz- L’obiettivo si può raggiungere estende ad altre aree-chiave zo e provisioning dei sistemi partendo dal disegno infra- dell’It, come l’elaborazione già presenti nell’infrastruttura strutturale, costruito su criteri delle informazioni, il software aziendale. di ottimizzazione per singoli applicativo e le analisi. Rende- carichi di lavoro e un TCO che re concreto questo concetto In base ai valori medi ottenu- possa far leva sull’automazio- implica la massima attenzione ti da analisi di mercato e da ne dei processi (tiering, provi- su aspetti come l’automazio- studi condotti presso propri sioning), sulla virtualizzazione, ne, l’integrazione e il cloud. clienti, IBM ha potuto stimare sull’erogazione dei servizi in che una maggiore efficienza modalità cloud e su tecnologie La ricerca di efficienza in am- nell’utilizzo dello storage con- evolute per la compressione e bito storage si traduce per IBM sente di sfruttare le risorse a la deduplica dei dati.12
    • Una completa gamma di sistemiLe soluzioni per lo storage efficiente proposte da IBM com-binano la tecnologia di una gamma hardware completa(che spazia dai sistemi entry-level a quelli high-end di fa-scia enterprise) con specifiche funzionalità per la virtualiz-zazione, il tiering automatico e il thin provisioning, fra lealtre cose.L’offerta di sistemi midrange si sostanzia nelle famiglieStorwize V7000 e DS di fascia più bassa. La prima rappre-senta gli array di riferimento per il midmarket, con capacitàda 300 GB fino a 1.4 PB (configurazioni cluster) e perfor-mance da 8 Gbps Fibre Channel e 1 Gbps iSCSI. L’evolu-zione più recente riguarda la combinazione fra lo storagedi tipo NAS basato su file con quello di tipo SAN basato sublocchi. Storwize V7000 Unified ottimizza l’utilizzo della ca-pacità a disposizione e migliora il provisioning, aggiungen-do la presenza di una singola interfaccia-utente per l’ammi-nistrazione dei dispositivi. I pool storage, inoltre, possonoessere condivisi fra carichi di lavoro per blocchi e per file.Sempre orientati al mercato intermedio, le gammeDS3000 e DS5000 sono progettate per soddisfare le esi-genze di sistemi aperti di oggi e di domani, stabilendoun nuovo standard per la longevità del ciclo di vita, conschede di interfaccia host sostituibili a caldo. L’architet-tura hardware di settima generazione, inoltre, garantiscealte prestazioni, scalabilità multidimensionale e protezio-ne degli investimenti.Le famiglie DS8000 e XIV sono invece rivolte al mercato difascia alta. I DS8000 beneficiano da poco dell’integrazionecon la più recente evoluzione di Easy Tier a tre livelli, checonsente di avere sempre e in automatico il miglior bilanciamento di flussi e prestazioni fra i disposi-tivi SSD (più potenti ma anche onerosi), i moduli disco di fascia enterprise e quelli nearline (a costi piùbassi) anche nella versione con crittografia integrata. I requisiti prestazionali sono soddisfatti al minorcosto possibile sempre garantendo la qualità del servizio.La serie IBM XIV indirizza le sfide connesse allo storage su tutto lo spettro applicativo, includendo lesoluzioni di virtualizzazione, database, analytics e protezione dei dati. L’architettura GRID a massiccioparallelismo rende XIV la piattaforma ideale per il cloud computing e gli ambienti virtualizzati.Fra i sistemi di file storage di IBM spicca la soluzione Scale Out Network Attached Storage (SONAS),che virtualizza e consolida file multipli in un singolo file system enterprise-wide, riducendo così il TotalCost of Ownership e i costi di capitale, aumentando l’efficienza operativa. Al di là della scalabilità in-trinseca della piattaforma, di recente si è aggiunta l’integrazione di Active Cloud Engine, motore di filemanagement basato su policy che rende efficiente la condivisione e la collaborazione tanto su scalalocale (all’interno di un’azienda) che globale (su siti multipli). In ambito Nas, si aggiungono all’offertaanche i prodotti modulari della serie N, mentre i virtual tape TS si indirizzano alle esigenze di protezio-ne e conservazione dei dati a basso costo. 13
    • La centralità del tiering concetto nuovissimo, ma l’e- necessario. Il motore, basato automatico voluzione verso l’automazione su policy, è abbinato a un file Le soluzioni per l’efficienza ne sta rapidamente allargando system che consente di ge- dello storage messe a punto da il potenziale. Tecnicamente, la stire i dati in modo semplice IBM si possono raggruppare in tecnologia consente di muove- e scalabile. Con Active Cloud diverse categorie, tutte funzio- re automaticamente differenti Engine, la gestione risulta effi- nali al disegno complessivo. È blocchi di dati attraverso i vari ciente tanto a livello locale che importante, come abbiamo già livelli dell’architettura, in base globale. Nel primo caso, dato sottolineato, che i dati venga- alle policy definite per ragioni un posizionamento iniziale, lo no collocati sui dispostivi più di business o di compliance e spostamento avviene in modo adatti in ragione del loro utiliz- studiate per ottenete la massi- trasparente fra i pool interni ed zo e della loro criticità. Nell’i- ma ottimizzazione del provisio- esterni, mentre vengono impo- deale piramide utilizzabile ning. IBM Easy Tier si occupa stati automaticamente backup, come metafora dell’infrastrut- proprio di queste funzionalità restore e replica interna e/o tura storage di un’azienda, in modo dinamico. Nata sui remota. Nel secondo caso, si alla base troviamo le librerie dispositivi di fascia enterpri- ottiene una significativa ridu- di nastri (fisici o virtuali) che se, la tecnologia è stata estesa zione dei costi di rete, con la fungono da archivio per i dati anche ai prodotti midrange. La memorizzazione dei file in siti che necessitano di essere con- possibilità di spostare auto- remoti prima dell’effettiva rice- servati per lungo termine. Via maticamente i dati da dischi zione della richiesta (garanzia via che si sale, troveremo hard di prestazione a dischi di ca- di alta disponibilità e accesso disk drive di capacità e di pre- pacità, in base alle esigenze rapido), ma anche l’eliminazio- stazioni, flash disk o dischi allo di business e ai volumi logici, ne della replica dei file nei siti stato solido, nei quali collocare consente di arrivare a triplicare remoti. i dati di maggior peso e impor- le prestazioni complessive pur tanza per l’azienda. Detto che usando dischi allo stato solido Sul lato dell’ottimizzazione del- IBM offre una gamma comple- solo nel 2% del totale. le capacità, un notevole passo ta di dispositivi hardware che avanti è stato compiuto con la coprono ogni elemento della Active Cloud Engine, invece, disponibilità della tecnologia piramide (si veda box in que- è un motore che costituisce la Real Time Compression, che ste pagine), è nelle tecnologie base dei sistemi di file stora- consente di lavorare solo sui integrate che si possono trova- ge SONAS (Scale-Out NAS) e blocchi necessari, tipicamente re gli elementi differenziali in consente agli utenti di gestire sui dati di primaria importanza, termini di efficienza. elevati numeri di file in modo senza degrado di prestazioni. In efficiente, individuando rapi- questo modo, si ottiene la pos- Il tiering dello storage, ad damente i dati di interesse e sibilità di ospitare una volume esempio, non è di per sé un li rende disponibili laddove è di dati fino a cinque volte supe- riore rispetto alle soluzioni tra- dizionali, guadagnando ulterio- re efficienza lungo il ciclo di vita dei dati. Agendo solo su quelli primari, anche tutte le succes- sive copie, backup, archiviazio- ni, snapshot e replica saranno compresse. L’operazione viene eseguita alla prima memoriz- zazione, rendendo possibile un minor invio di dati fisici ai siste- mi storage. Le appliance Real Time Compression si adattano a NAS non solo IBM (N Series), ma anche di altri produttori e può comprimere file e databa- se primari fino all’80%.14
    • IBM PORTA L’HYPERVISORNEL MONDODELLO STORAGECombinando SAN Volume Controller con Tivoli Storage ProductivityCenter, Big Blue propone una soluzione dedicata di virtualizzazione chepuò integrare anche array di altri produttori. Così si pongono le basiper l’evoluzione verso il cloud.I n molte realtà, la virtualizzazione è un concetto che è stato inizialmente applicato soprattuttoalla componente dei server presenti nei sistemiinformativi. Molti dei benefici che se ne posso-no ricavare – dal miglioramento dell’utilizzo dellerisorse alla flessibilità, dai tempi di risposta allamobilità dei carichi di lavoro fino al disaster reco-very – possono tuttavia risultare limitati se solouna parte dell’infrastruttura viene coinvolta nelprocesso. Ecco perché la virtualizzazione dellostorage è una componente critica dell’evoluzionedei sistemi informativi e costituisce anche unodei fondamenti per un’efficace implementazionedel cloud computing. sempre SAN Volume Controller, mentre il “re-Nell’ambito delle soluzioni proposte da IBM, SAN gista” è IBM Tivoli Storage Productivity Center.Volume Controller (SVC) rappresenta la tecnolo- A questo, IBM aggiunge Tivoli Storage Flashgia dedicata di maggior peso storico. Il prodotto, Copy Manager, sottolineando come la capaci-network-based, risiede in una SAN e si connette a tà di snapshot integrata con le applicazioni disistemi eterogenei attraverso iSCSI o Fibre Chan- business ed incorporata nel prodotto sia un in-nel. Fino a otto nodi possono essere configurati grediente essenziale dello storage hypervisor.in cluster per ottenere scalabilità sull’ampiezza dibanda o sulla capacità. Ogni modulo SVC inclu- Ottimizzazione con il thin provisioningde la replica fra sistemi storage e il mirroring fra In questo modo, è possibile creare un singolounità locali o remote. Inoltre, SVC utilizza un’in- pool di dispositivi gestiti che possono essereterfaccia grafica modellata su IBM XIV Storage distribuiti su differenti array (anche di differentiSystem, progettata per rendere facile l’utilizzo e produttori). Lo storage virtualizzato (anche susemplificare il provisioning. array singolo) funziona in modo diverso rispet- to ai metodi tradizionali di condivisione in unaLungo la strada tracciata, IBM è arrivata a pro- SAN. Di solito, infatti, ogni applicazione vieneporre un concetto di hypervisor dello storage che allocata in una porzione dello storage fisicosi allinea a quanto già disponibile nel mondo dei disponibile, in base alle necessità specifiche.server. Dietro quello che è stato battezzato Sto- Questa modalità tende però a lasciare spaziorage Hypervisor si cela una combinazione di sof- libero inutilizzato. Il thin provisioning dello sto-tware storage, che integra le necessarie funzioni rage hypervisor, invece, mette a disposizionedi virtualizzazione dello storage e di software di delle applicazioni spazio virtuale utilizzabile agestione, in modo da fornire il framework auto- piacimento, fino al limite dello storage fisico di-matico e centralizzato per tutte le risorse storage sponibile. Inoltre, esso disaccoppia i servizi sto-virtualizzate. Il prodotto che agisce praticamen- rage (mirroring o replica, per esempio) dai sot-te per rendere efficace questa combinazione è tostanti media fisici. Queste funzionalità sono 15
    • molto importanti per attività come la protezione e differenti sistemi, come gli IBM XIV e DS8000, dei dati, il backup locale o il disaster recovery ma anche array di altri produttori. remoto. In un ambiente gestito da hypervisor, i servizi storage accompagnano i dati e questi pos- In prospettiva, il successo di un’evoluzione verso sono essere spostati virtualmente da un’istanza il cloud storage si ottiene attraverso un processo fisica all’altra. graduale, che inizia proprio con la disponibilità di un’infrastruttura virtualizzata e resa efficiente. Dovrebbe essere ovvio che un amministra- Questi aspetti, combinati con la gestione auto- tore che utilizzi lo schema hypervisor per lo matizzata, possono fornire un catalogo di servizi storage, debba dedicare il proprio tempo a com- con capacità di self-provisioning, collaborazione piti a maggior valore aggiunto. IBM SVC abilita la e abilitazione verso il concesso di pay-per-use. virtualizzazione, mentre Tivoli Storage Producti- Una cloud privata di storage offre numerosi van- vity Center non solo automatizza la gestione dei taggi agli utenti, a partire dall’erogazione più effi- cambiamenti, ma la rende possibile a un livello cace dei servizi, con livelli più elevati e un miglior più granulare. Il processo di gestione fa sì che i utilizzo degli asset. Gli ambienti storage virtua- dati vengano indirizzati su volumi virtuali attra- lizzati e dotati di capacità avanzate di deduplica, verso multipli livelli di storage (dalle memorie compressione e self-tuning sono meglio predi- flash SSD ai dispositivi FC/SAS fino a quelli SATA) sposti per il passaggio alla cloud privata. Il nastro compie 60 anni Mentre le imprese di tutto il mondo lottano con le incessanti ondate di dati che piombano nei loro data center, qualcuno potrebbe chiedersi come siamo arrivati a questo punto. E se da un lato vi è stato un gran numero di innovazioni nella storia dell’informatica, dall’altro è giusto dire che lo storage digita- le così come lo conosciamo oggi non esisterebbe se IBM non avesse creato il nastro nel maggio di sessant’anni fa. L’innovazione ha consentito agli enormi calcolatori di salvare i loro risultati in modo digitale su bobine di nastro magnetico, anziché su schede perforate o carta. Man mano che questi sistemi aumentavano le proprie prestazioni, le relative soluzioni di archiviazione non erano sostenibili. Per rispondere a questa esigenza IBM ricorse al nastro magnetico. La tecnologia, che veniva utilizzata per registrare l’audio, sembrava promettente per i massicci sistemi di calcolo, ma il nastro non era suf- ficientemente durevole. Quando si utilizzavano grandi bobine di nastro per acquisire i dati dei compu- ter, i potenti motori delle unità nastro, che si avviavano e si arrestavano bruscamente, ne provocavano facilmente la rottura. Gli ingegneri affrontarono questo problema in modo diretto. E il 21 maggio 1952, quando l’azienda rilasciò il suo primo computer di produzione, l’IBM 701, questo era accompagnato da un sistema di archiviazione che rappresentava una rivoluzione nel nastro magnetico. L’IBM 726 era un colosso da 424 chilogrammi, poggiato sul pavimento, che risolveva il problema della rottura grazie all’uso di una “colonna sotto vuoto”, che creava un tampone di nastro libero tra gli avvii e gli arresti. L’innovazione della colonna sotto vuoto non fu solo un successo, ma venne adottata dalla maggior parte dei produttori di unità nastro ad alte prestazioni, facendone una delle tecnologie informatiche più impiegate del XX secolo. Le sfide del 2012 non sono certo quelle del 1952. Oggi dinamiche rivoluzionarie, come social media, mobile computing, Big Data e regolamentazione, si intrecciano e creano un ingorgo del traffico digitale di dimensioni epiche. Secondo alcuni, la quantità di informazioni che dovrà essere archiviata in modo digitale supererà gli 8 Zettabyte (ossia 8 miliardi di Terabyte) entro il 2015. Queste tendenze e previsioni costringono ogni settore a esaminare le proprie infrastrutture di storage con un’attenzione senza pre- precedenti. Ma il nastro resiste ancora e IBM continua a investirci.16
    • LA SOLUZIONE DI SGMPER GESTIRE I BIG DATAQuello della grande gli interlocutori esterni; inno- vazione continua sia nelle tec- per selezionare i rivenditori più in sintonia con SGM e integrar-distribuzione è uno nologie che nei processi con li nella rete del gruppo; il nego-dei mercati dove l’obiettivo di essere un punto zio del futuro, con tecnologie eil volume di dati di riferimento nel mercato, alla portata di tutti. layout all’avanguardia per es- sere sempre più in sintonia conda elaborare e le esigenze e le aspettative delanalizzare in funzione Il modello di business è in cliente finale.del business sta grado di cogliere veloce- mente le opportunità del L’infrastrutturaaumentando con mercato e trasferirle in ma- tecnologica e i vantaggimaggior intensità. niera veloce ed efficiente L’impianto ICT, si basa su siste-Il più grande su tutti i canali di vendita. mi hardware aperti e scalabili, due Power Systems e blade IBM.associato al Gruppo Il risultato sono circa 14 milio- Per far fronte al volume crescen-Expert in Italia ha ni di articoli venduti ogni anno te dei dati da gestire ed elaborarerinnovato il sistema e 38.000 ogni giorno: pratica- mente vengono acquistati 37 oggi SGM ha scelto la piattafor- ma XIV proprio per le sue carat-informativo puntando elettrodomestici al minuto. teristiche di scalabilità dinamica,su scalabilità e auto riparazione in caso di gua- L’esigenzaazzeramento dei Oggi SGM vuole essere un’a- sto tecnico e grandi prestazioni ottimali, tutti requisiti che riduco-fermi macchina zienda multicanale totalmen- no la complessità gestionale tipi- te integrata: non deve esser- camente correlata agli ambientiS GM è per dimensioni e fat- turato il più grande asso-ciato al Gruppo Expert in Italia ci separazione tra il negozio ed il web, tra clienti della di- stribuzione e clienti del det- a rapida crescita. L’architettura è anche concepita per ottimizzare in maniera automatica l’utilizzoed opera nel mercato dell’e- taglio che, magari, hanno delle risorse di tutti i componentilettronica di consumo con il solo un contatto attraverso il all’interno del sistema, permet-marchio “MarcoPolo Expert” . call center. tendo così una semplificazioneLo confermano alcuni numeri delle attività di gestione e con-chiave: 68 megastore di pro- Per raggiungere questo obiet- figurazione nonché un conside-prietà, 5 negozi in franchising, tivo SGM ha avviato una serie revole miglioramento delle pre-700 clienti distributori, oltre 2 di progetti che puntano es- stazioni e della disponibilità dimilioni di carte fedeltà, 1.700 senzialmente su cinque fattori informazioni.dipendenti. chiave: un’efficace comunica- zione interna, semplice e bi- L’architettura software è af-I valori dell’azienda sono ri- direzionale; un nuovo format facciata sul DB2 e le soluzionimasti invariati nel tempo e ne commerciale; la logistica, che WebSphere in ambito Web ehanno guidato l’evoluzione mette a disposizione di tutti i middleware aiutano la pubbli-e la crescita: attenzione alla punti di vendita un magazzino cazione e l’integrazione dei dati.persona, qualunque sia il suo virtuale che è la somma del La soluzione IBM DataStage haruolo (cliente, dipendente o magazzino centrale di Forlì e di trovato un’ottima collaborazio-fornitore); centralità del clien- tutti i prodotti disponibili pres- ne con la sottostante piattafor-te; meritocrazia sia all’interno so i punti vendita; un progetto ma XIV che ne aiuta la velocitàdell’organizzazione sia verso di espansione in franchising di spostamento del dato. 17
    • In SGM il sistema informati- ter contare su un’infrastruttura guentemente lo deve essere vo riveste un ruolo strategi- tecnologica in grado di evolve- anche per chi, operando sulle co, per rispondere in maniera re in maniera dinamica rispetto tecnologie, ne deve fornire la puntuale alla domanda della alle esigenze del business, che soluzione tecnica in tempi ra- clientela e per anticiparne le consentisse di accedere velo- pidi. esigenze. L’azienda si trova a cemente ai dati a seconda delle dover gestire grandi quanti- necessità di ogni specifico mo- La piattaforma XIV è stata la ri- tà di dati rilevanti e continua- mento. sposta completa alle richieste mente freschi provenienti da di SGM in ambito storage. Non canali distributivi diversi, senza Un’implementazione solo. L’installazione e la mes- poter dedicare tempo alle ma- rapida ed efficiente sa in produzione del nuovo nutenzioni e agli spostamenti. Se la tecnologia deve essere sistema sono state realizzate La decisione, inevitabile, di rin- un abilitatore del business, è in tempi estremamente brevi, novare le architetture esistenti necessario che sia utilizzabile con un impiego ridotto di ri- ha fatto perno sull’esigenza pri- facilmente e deve consentire sorse umane, senza alcun im- maria della scalabilità, ma an- rapidamente l’analisi del dato patto sulle attività del gruppo, che sulla possibilità di azzerare e dell’informazione. La sem- facendo sì che un importante i fermi macchina e consentire plicità d’uso deve essere vista cambio di tecnologia fosse re- rapide rivisitazioni d’uso. In so- prioritariamente orientata al alizzata con un’azione traspa- stanza, l’IT di SGM doveva po- utente del sistema ma conse- rente all’utente finale.18
    • CONSOLIDAMENTOE SICUREZZA IN CASATREVALLI COOPERLATT revalli Cooperlat è nata nel 1982 su iniziati- va della Confcooperative Marche tra novecooperative agricole e ha seguito negli anni un Dal punto di vista dello storage, ora un unico sistema IBM Storwize V7000 contiene sia i vo- lumi open che i volumi iSeries con disponibilitàpercorso di crescita continua fatto di nuove ac- di 32,5 Tb su dischi SAS 2 e 2,7 Tb su SSD conquisizioni, tanto da diventare oggi una grande attiva funzionalità Easy Tier. IBM SAN Volumerealtà agroalimentare che raggruppa undici coo- Controller (SVC) si occupa della virtualizzazioneperative agricole e opera in nove regioni italiane. dello storage, integrando le funzionalità di thinNe fanno parte oltre mille allevatori, mentre il fat- provisioning e flash copy, la prima per avere laturato supera i 220 milioni di euro. possibilità di assegnare anche grandi volumi a macchine di test andando oltre le capacità realiAll’IT di Trevalli Cooperlat viene richiesto in assegnate e la seconda per una nuova politica digenerale un servizio che possa gestire veloce- backup, che permetta di minimizzare l’indispo-mente i cambiamenti strutturali e logistici che nibilità dei sistemi per queste funzioni.l’azienda persegue per il proprio business in ter-mini di accorpamenti, acquisizioni, dislocazioni, La revisione delle politiche di backup sfrutta lerazionalizzazioni. Occorre, inoltre, far fronte alla potenzialità di IBM Tivoli Storage Manager percrescente informatizzazione dei reparti produtti- poter gestire direttamente gli snapshot dell’am-vi con sistemi sicuri e sempre accessibili, gover- biente VMware per il mondo open. e la flashcopynare i costi di gestione del data center, avere a di SAN Volume Controller per il mondo iSeries.disposizione strumenti per la tutela dell’integrità L’infrastruttura di backup ha uno storage pool adelle informazioni, per la continua disponibilità disco di 20Tb su un sistema IBM DS3500, 2 tapedelle informazioni per le strutture autorizzate e IBM TS3200 rispettivamente uno per il mondoper la costante valutazione delle possibili debo- open con 4 drive e l’altro per i sistemi iseries conlezze del sistema informativo aziendale. 2 drive, connessione in fibra 4GB con un lama IBM HS22 che funge da server Tivoli.Questi sono gli elementi che hanno convinto ilmanagement di Trevalli Cooperlat a ristruttura- Il nuovo data center ha portato a significativi ri-re la propria infrastruttura informatica, in modo sparmi energetici, con una riduzione dei consu-tale da renderla flessibile e pronta a rispondere mi di circa il 33%.velocemente ai cambiamenti, aperta alle nuovetecnologie e scalabile velocemente in termini diprocessore, memoria e disco e performance.Dopo un iniziale assessment infrastrutturale af-fidato a IBM, la soluzione progettuale scelta daTrevalli Cooperlat, fornita e realizzata con il sup-porto del business partner EUROLAB, prevedel’utilizzo di soluzioni tecnologiche innovative,che spaziano dal consolidamento di tutti i ses-santa server fisici Windows/Linux in ambienteVMware su un IBM BladeCenter H con 2 lameHX5 a quello dei tre sistemi iSeries per SAP at-traverso l’inserimento, nello stesso BladeCenterH, di una lama POWER7 PS702 a 6 core. 19
    • Se desiderate maggiori informazioni o approfondimenti, visitate i seguenti indirizzi: www.ibm.com/systems/it/storage/ http://www.ibm.com/systems/storage/index.html IBM e il logo IBM, sono marchi registrati di International Business Machines Corporation in diversi Paesi del mondo. La lista aggiornata dei marchi registrati di IBM è disponibile sul sito www.ibm.com/legal/copytrade.shtml, alla voce “Copyright and trademark information”. Intel, il logo Intel, Intel Inside e Intel Xeon sono marchi registrati di Intel Corporation o delle sue filiali negli Stati Uniti e/o in altri Paesi. Linux è un marchio registrato di Linus Torvalds negli Stati Uniti e/o in altri Paesi. Altre denominazioni ivi citate possono essere marchi registrati dei rispettivi titolari. Questa pubblicazione è fornita solo a titolo informativo. Le informazioni sono soggette a modifiche senza preavviso. Per le informazioni più aggiornate sui prodotti e sui servizi IBM visitate la home page di IBM Italia. © Copyright IBM Corporation 2012. Tutti i diritti riservati. Efficienza e ottimizzazione diventano native nello storage IBM. La fornitura editoriale di IBM è indipendente dall’analisi di Gartner. Tutta la ricerca Gartner è protetta da © 2012 di Gartner, Inc. Tutti i diritti riservati. Tutto il materiale Gartner è utilizzato con il consenso di Gartner. L’uso o la pubblicazione della ricerca Gartner non indica l’approvazione da parte di Gartner dei prodotti e/o delle strategie di IBM. La riproduzione o la distribuzione di questa pubbli- cazione in qualsiasi forma, senza previo consenso scritto, è vietata. Le informazioni contenute in questo documento sono state ottenute da fonti ritenute attendibili. Gartner non fornisce alcuna garanzia sull’accuratezza, la completezza o l’adeguatezza di tali informazioni. Gartner declina ogni responsabilità in caso di errori, omissioni o inadeguatezza delle informazioni qui contenute o delle relative interpretazioni. Le opinioni qui espresse sono soggette a modifiche senza preavviso. Sebbene la ricerca Gartner possa prendere in esame aspetti legali correlati, Gartner non fornisce consulenza o servizi di natura legale e la sua ricerca non deve essere interpretata come tale. Gartner è una società pubblica e tra i suoi azionisti possono figurare aziende e finanziatori con interessi economici nelle entità di cui si occupa la ricerca Gartner. Del consiglio di amministrazione Gartner possono far parte alcuni senior manager di queste aziende o di questi fondi. La ricerca realizzata da Gartner è indipendente dall’organizzazione di ricerca e non subisce influenze né pressioni da parte delle aziende, dei finanziatori o dei loro responsabili. Per ulteriori informazioni sull’indipendenza e l’integrità della ricerca Gartner, consultare “Gui- ding Principles on Independence and Objectivity” (Principi guida di indipendenza e obiettività) sul sito Web http://www.gartner.com/technology/about/ ombudsman/omb_guide2.jsp.20