Speciale server storage office automation  giugno 2013
Upcoming SlideShare
Loading in...5
×
 

Like this? Share it with your network

Share

Speciale server storage office automation giugno 2013

on

  • 325 views

Un'intervista su questo argomento ad alcuni CIO Italiani

Un'intervista su questo argomento ad alcuni CIO Italiani

Statistics

Views

Total Views
325
Views on SlideShare
318
Embed Views
7

Actions

Likes
0
Downloads
2
Comments
0

2 Embeds 7

http://www.linkedin.com 6
https://www.linkedin.com 1

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Speciale server storage office automation giugno 2013 Document Transcript

  • 1. 10 giugno 2013 Una volta si comprava tanto ‘ferro’ che poi maga- ri veniva utilizzato al 10% delle capacità e costava molto anche sotto il profilo dei consumi di ener- gia. Questo però è il passato che non tornerà più… per fortuna. Oggi nell’epoca della virtualizzazione e del cloud computing come le aziende si organizzano per di- mensionare, selezionare e acquisire le risorse di elaborazione e di memorizzazione per i loro data center: ovvero server e storage? Con questa semplice curiosità ci siamo mossi per capire come sono cambiate le cose rispetto al pas- sato, in un’epoca in cui le risorse finanziarie per l’IT non devono essere sprecate e allo stesso tempo bisogna essere capaci di rispondere alle esigenze del business in tempi rapidi. Per raggiungere il nostro obiettivo abbiamo inter- vistato i responsabili IT di quattro realtà aziendali molto diverse tra loro: la tipica PMI italiana cam- pione internazionale però del nostro Made in Italy, il creatore di gioielli Chantecler; la filiale nazionale di una banca che opera a livello globale, Deutsche Bank; l’azienda culturale del nostro Paese che ope- ra in diversi settori (dalla televisione alle librerie) esclusivamente sul mercato interno, Gruppo Fel- trinelli; la filiale italiana con produzione e attività commerciale anche di servizi di una multinaziona- le straniera focalizzata su un mercato particolare, Carl Zeiss Italy. Un panorama variegato e con differenze enormi, prima di tutto sul fronte della capacità di spesa, dove ogni realtà si muove tenendo conto di fattori molto diversi dall’altra, ma dove, e questa la carat- teristica comune da valorizzare, ogni responsabili IT è riuscito a fare importanti innovazioni, trovando caso per caso, gli strumenti più utili per raggiun- gere i suoi obiettivi. Infine, in modo ‘laterale’, da questa inchiesta è emer- sa una posizione di attesa, se non di diffidenza, sul cloud computing ibrido e pubblico che doverosa- mente segnaliamo. Era stata infatti studiata una domanda particolare che ci permettesse di far emergere con chiarezza la propensione o la diffidenza dei nostri interlocu- tori verso il nuovo modello di acquisizione delle risorse IT: “A parte il vostro processo standard di acquisizione di capacità server o storage, come vi comportate se dal business arriva una richie- sta impellente e non prevista da gestire?” Anche di fronte a un caso di questo tipo, per ora il cloud non riesce a emergere come la risposta più adat- ta a gestire le ‘emergenze’ di business. Forse sul fronte dell’offerta di questi nuovi servizi qualcosa andrebbe cambiato... Come cambiano le modalità di acquisizione di server e storage Quattro aziende a confronto per capire come in questi anni, caratterizzati da virtualizzazione e cloud, stanno cambiando le modalità di acquisizione dei sistemi di base. I racconti dei responsabili IT di Chantecler Capri, Carl Zeiss Italy, Deutsche Bank Italia e Gruppo Feltrinelli. Ruggero Vota la voce degli utenti
  • 2. 11giugno 2013 La PMI che deve ottenere qualità con poche risorse Chantecler Capri è una realtà d’eccellenza del nostro Made in Italy attiva da oltre 65 anni nella produzio- ne di gioielli. Nei primi Anni 2000, l’azienda decide di intraprendere la sfida dell’internazionalizzazione, aprendosi alla distribuzione tramite il canale who- lesale e ottenendo un successo immediato. Opera con alcuni negozi di proprietà e con una rete di ri- venditori e di punti vendita in franchising riuscen- do oggi a portare il proprio stile in tutto il mondo. “Nel mondo del gioiello, così come probabilmente in altri, i sistemi informativi sono molto utilizzati, ma sono ritenuti più una necessità di cui non si può fare a meno, piuttosto che una vera e propria leva strategica per la crescita del proprio business – di- chiara Claudio Nasti, direttore sistemi informativi Chantecler. Proprio per questo quindi, nonostante la mia sia una struttura leggera, abbiamo tutto l’IT in outsourcing e personalmente coordino solo for- nitori esterni. Il nostro data center è però all’interno dell’azienda e penso che ci rimarrà per molto”. Una realtà nei fatti descritti che oggi è comune anche a imprese piccole e medie di altri settori, dove la resistenza a portare fuori le informazioni è sicura- mente molto forte soprattutto quando entrano in gioco aspetti fondamentali per il business come la protezione della proprietà intellettuale e dei brevetti. La gestione di server e storage Attualmente nel data center di Chantecler sono attivi 17 server virtuali in configurazione rack e in cluster, a questi si aggiungono due server fisici, un sistema di storage esterno e alcuni sistemi per ge- stire la ridondanza dei backup. “Abbiamo iniziato il processo di virtualizzazione nel 2007 e negli anni abbiamo seguito tutti gli aggiornamenti – spiega Nasti. L’unica applicazione installata su un siste- ma tradizionale è la piattaforma applicativa, tutte le altre invece girano su macchine virtuali. Con il prossimo anno però anche la piattaforma gestiona- le verrà spostata su una nuova tipologia di sistema virtualizzato. Entro il 2014 quindi disporremo di un ambiente IT totalmente virtuale”. Il sistema di storage esterno gestisce una decina di TB e sono più che sufficienti: “Sono consapevole di essere sovraccarico di capacità, ma è stata una scelta necessaria per non avere problemi qualsiasi cosa mi venga chiesta dal business”. Una capacità che però non va sprecata. Anzi una buona ottimizzazione degli spazi di memoria con- sente di tenere il fattore volume dati sotto control- lo, e quindi assicurare sempre quella capacità di reazione che giustifica il sovradimensionamento: “Costantemente mi occupo di gestire e verificare che in azienda siano presenti i dati sicuramente in- dispensabili e quelli necessari per la crescita. Inoltre cerco di evitare di moltiplicare gli stessi documenti che possono proliferare in modo incontrollato: ho attivato un meccanismo di condivisione dei docu- menti sulla intranet aziendale che evita al minimo la diffusione in più copie della stessa versione di uno stesso documento. Così come si produce tanta carta in maniera inutile, in altrettanta maniera si produ- cono grandi quantità inutili di volumi di storage”. Anche in Chantecler l’obiettivo comunque è quello di evitare gli sprechi e ogni innovazione tecnologi- ca è realizzabile a fronte di un progetto che dia un ritorno in parte immediato e in parte in un periodo medio. Ciò non toglie che ogni due o tre anni venga effettuato un ciclo di revisione dell’infrastruttura IT, e quindi si proceda anche con la sostituzione di diverse macchine. Un paradosso apparente, ma facilmente risolto Può sembrare paradossale che in un’azienda dove il direttore dei sistemi informativi è anche l’uni- ca persona di staff dell’IT possa essere messo in Claudio Nasti, direttore sistemi informativi Chantecler
  • 3. 12 giugno 2013 campo un processo così articolato e complesso. Ma la soluzione del paradosso è semplicemente detta: “Per reggere questo ritmo ho trovato come estremamente comodo il discorso del noleggio dei sistemi, che estendo a tutti gli apparati IT e non solo a server e storage. Grazie a tale soluzione, tra le altre cose, non mi devo più occupare della parte di smaltimento dei vecchi sistemi che sta diventan- do un processo veramente complesso e oneroso in termini di tempo e burocrazia. Si pensi che è ne- cessario ogni volta far intervenire un notaio perché comunque i sistemi ricadono nei cespiti aziendali. Con il noleggio posso quindi svecchiare facilmente il parco macchine esistente”. Questa formula che riflessi ha sui tempi di reazione alle richieste ‘impellenti’? “Dal momento in cui con- tatto il ‘noleggiatore’ al momento in cui faccio una serie di valutazioni di offerte e scelgo le macchine passa circa un mese. Per alcune richieste specifiche può passare anche più tempo”. Ma il vantaggio principale è la possibilità di dimen- sionare di volta in volta l’intero sistema informati- vo sulle necessità reali, risultando sempre in linea con le ultime versioni delle tecnologie che si vo- gliono implementare: “Per un’azienda molto ela- stica e con un forte turn over delle risorse interne anche il dimensionamento dei desktop è variabile. Con contratti di questo tipo a canone mensile ‘va- riabile’, nel momento in cui emerge una richiesta di rinnovamento tecnologico, o il posizionamento dei desktop per gli stagisti, il provider dietro una riconfigurazione del canone mensile mi mette a di- sposizione in tempi ragionevoli la mia richiesta di cambiamento. Se per esempio decidessi di passare a Windows 8, cosa che però non farò, posso de- cidere molto velocemente quando sostituire tutte le macchine”. Il noleggiatore fornisce una serie di servizi a sup- porto compresi nel canone, dall’assistenza online all’help desk a più livelli. In ogni caso è l’unica in- terfaccia con l’azienda utente che invece non deve andare a cercare i diversi vendor dei sistemi quando si verificano anomalie e malfunzionamenti. Un vantaggio non di poco conto è poi il fatto che l’azienda utente non deve compiere investimen- ti nella continua formazione di personale interno. Anche questo è un costo non indifferente che può incidere in modo sostanziale sul budget IT di azien- de medio piccole. “Per evitare l’effetto di lock in del fornitore è sempre meglio frammentare i propri provider. E’ una regola che seguo non solo per l’hardware, ma anche per il software applicativo e per la consulenza. Avere più punti di riferimento è meglio, poichè un punto di riferimento unico può venire a cadere per qual- siasi motivo. Non so se forse si può parlare di un ‘cloud ibrido o pubblico’ con in realtà i sistemi in casa; certo è che questo è l’unico modo per avere qualità con poche risorse”. La governance degli acquisti di una banca ‘globale’ In una realtà globale molto estesa e complessa come Deutsche Bank dal 2007 è stato avviato un pro- gramma di standardizzazione di tutte le risorse IT. Questo anche a seguito della firma di un contratto per la gestione dell’infrastruttura valido per tutti i Paesi europei con un player importante dell’offerta di servizi di outsourcing. In questo scenario quindi anche l’infrastruttura data center di Deutsche Bank Italia è stata centralizzata a livello europeo, principalmente in Germania, e a oggi non esistono più data center operativi local- mente nel nostro Paese di questa azienda, mentre rimangono attivi in DB Italia alcuni server di servi- zio per esigenze specifiche. La voce degli utenti “Mai trovarsi a dover dire... impossibile” L’esigenza IT principale di Chantecler Capri è quella di essere in linea con le novità tecnologiche per evitare problemi alle soluzioni software e applicative di cui necessita il business: “Già il prossimo anno sostituirò la configurazione rack in cluster – afferma Claudio Nasti, direttore sistemi informativi della società. Per molte realtà non è un investimento consistente, ma invece nel mio budget ha sicuramente un peso importante. Dovrò sostituire i server sui quali girano le macchine virtuali, questo perché la nuova versione del virtualizzatore che utilizziamo non girerà più con i micropro- cessori che attualmente abbiamo sul blade. L’azienda ha la necessità, ed è in questo senso mio dovere supportarla, di essere sempre e in ogni momento sul mercato”. Una infrastruttura IT non in grado di supportare anche le ultime tecnologie può avere una ripercussione molto negativa sul business: “Oggi, per esempio, abbiamo il progetto di mettere in alcune boutique dei tablet che possono essere utili al cliente per la consultazione della nostra offerta. Se la mia azienda mi chiede questa cosa, io devo essere pronto a supportarla; sarebbe una sconfitta, soprattutto per me, se la mia risposta a questa richiesta fosse: impossibile”.
  • 4. 13giugno 2013 Il processo oggi non ha ancora toccato la natura storica dell’IT di DB Italia, e quindi l’infrastruttura centrale dedicata all’Italia, e governata a livello eu- ropeo, è ancora basata su mainframe (così come quelle di altri Paesi dove è presente una forte com- ponente di business retail), mentre il progetto a lungo termine è quello di una migrazione verso un nuovo sistema di core banking in ‘acquisizione’ dal mercato basato su server blade industry standard. “Si tratta di una scelta di standardizzazione che non riguarda la sola Europa, è un programma a livello mondo che coinvolge i 72 Paesi in cui siamo pre- senti – dichiara Riccardo Riccobene, responsabile progetti strategici global technology production IT Emea di Deutsche Bank. Quindi è in via di de- finizione un complesso processo di migrazione”. Il tutto nasce da un piano che punta all’eccellenza operativa che dovrà concludersi entro il 2015. Se- condo gli impegni presi con gli investitori questo piano dovrà portare all’abbattimento di 4,5 miliardi di euro di costi, la gran parte di questi proveniente dal mondo IT. “A oggi è in corso la virtualizzazione completa del nostro ambiente, puntiamo a lungo termine ad avere un tasso di virtualizzazione del 100%. Sarà un processo lungo, il primo obiettivo è arrivare entro il 2016 alla virtualizzazione delle maggiori applicazioni. Oggi comunque ci conside- riamo un cloud privato”. La strategia di standardizzazione delle risorse IT Per quanto riguarda i processi di definizione delle risorse IT necessarie al supporto del business, nel 2011 con una visione integrata a livello globale è stata varata l’Enterprise Compute Strategy: “All’in- terno del concetto di ‘compute’ sono racchiusi tutti gli aspetti tecnologici, operativi e commerciali. Non esistono quindi più strutture IT nei singoli Paesi che prendono decisioni in questi ambiti, ma sono nati dei comitati, per quanto ci riguarda come Italia a livello Emea, dove ogni singolo Paese ha dei propri rappresentanti”. All’interno di questa iniziativa è stato quindi creato l’Enterprise Compute Strategy Board che ha sta- bilito, tra le altre cose, il piano industriale relativo alla virtualizzazione di tutto il mondo IT, basato su due pilastri fondamentali: industrializzazione e consumerizzazione: “Su questi due pilastri quello che si sta cercando di ottenere è la riduzione del 50% dei costi infrastrutturali dell’IT”. Per quanto riguarda l’industrializzazione vengono definite delle linee guida – Blue Print - necessarie sia agli sviluppatori, per guidarli nella scelte delle componenti che devono essere utilizzate nell’am- bito dello sviluppo delle nuove applicazioni, sia a livello strutturale per costruire gli stack di supporto: “L’obiettivo è quello di costruire la nostra private cloud utilizzando solo dei componenti standard e riducendo al minimo tutte le necessità di custo- mizzazione; non sono più previste soluzioni tatti- che basate sulle specifiche conoscenze di singoli sviluppatori, piuttosto che preferenze di country”. “Passare attraverso la consumerizzazione significa dare allo sviluppatore o alla persona IT in genere la possibilità di utilizzare dei servizi self service ela- stici, trasparenti, documentati in modo che la per- sona possa selezionare e ‘prelevare’ la tecnologia che gli serve in modalità virtuale, soprattutto su tecnologia blade perché è quella che consente la massima flessibilità”. In quest’ottica è in via di introduzione il concetto di ‘mattoncini’ predefiniti per la soluzione cloud mo- dulare interna, configurati a seconda della dimen- sione della locazione di riferimento. La scala parte da un quarto di rack (2-3kw, 100 virtual machine, 20 TB di storage) fino a un massimo di tre rack (40-50kw, 3.000 VM, 200 TB storage oppure 500 VM e 1PB di storage). “In questo scenario l’utente Riccardo Riccobene, responsabile progetti strategici global technology production IT Emea di Deutsche Bank
  • 5. 14 giugno 2013 IT autorizzato si interfaccia con una soluzione di gestione delle utenze che secondo il suo profilo e il centro di costo di riferimento (informazione utile per il billing), può prendere i componenti che ser- vono per svolgere il suo lavoro. Il modello target è l’estensione del self provisioning in ogni ambito. Il sistema oggi è attivo per alcuni servizi e stiamo riscontrando già diversi risultati positivi perché ab- biamo a disposizione una soluzione molto flessibile, che si basa comunque sempre su un corretto utilizzo della ‘compute power’ standardizzata”. Il processo di dimensionamento e acquisizione L’acquisto dei sistemi è tutto delegato centralmen- te e fa riferimento a un processo che viene attivato dalle singole country: “Per ogni singolo progetto il nostro team di architettura definisce quelli che sono gli standard da utilizzare, oltre alle Blue Print e alla technology roadmap che sono già attive, viene costruito il design della corretta infrastruttura e del corretto middleware e quindi di tutto lo stack che serve a supporto del progetto. Uno dei primi passi nella definizione del progetto è proprio il disegno dell’architettura di alto livello”. Sulla base di quanto emerso in questa prima fase parte il processo di disegno del servizio che viene poi affinato successivamente. Questo è curato da un organismo - Service Design - che si occupa anche del dimensionamento delle risorse di elaborazione e memorizzazione: “Quando tutti gli stakeholder di progetto ritengono che quella identificata sia l’architettura standard da utilizzare si passa allora all’implementazione dell’infrastruttura”. In fase di ‘acquisizione’ delle risorse, invece, viene prima di tutto chiaramente verificato cosa è già disponibile all’interno di tutti i data center DB che sono già stati riconfigurati secondo questo modello industriale: “Se proprio serve si passa all’acquisto di nuovi sistemi e per fare l’ordine di acquisto c’è un tool apposito”. Il processo di acquisizione vero e proprio passa at- traverso vari comitati di approvazione per la verifica del budget: “Il processo è stato costruito in modo da avere dei tempi abbastanza precisi, chiaramente non possono essere dei tempi assoluti, ma se sono richieste standard, il tutto si svolge tra le quattro e le otto, massimo dieci settimane a seconda del- la complessità dell’ambiente. Rispetto al passato questi tempi sono decisamente diminuiti: dal 2008 a oggi possiamo dire che li abbiamo dimezzati”. Il passaggio tra le vecchie e la nuova modalità non è stata una cosa indolore, ma rispetto alle pratiche del passato i miglioramenti ottenuti sono conside- revoli: “Chiaramente nella fase di passaggio da una modalità a quella nuova c’è stato un picco iniziale tipico di tutte le trasformazioni organizzative che comunque si è ridotto una volta assestato il pro- cesso. Quando potevamo fare gli acquisti in Italia per i data center locali, avevamo una quantità di soluzioni ad hoc, tattiche o disegnate su specifi- che esigenze per un determinato processo. Questo produceva a livello globale una sostanziale ineffi- cienza perché registravamo una media di impiego La voce degli utenti Come cambia il rapporto con l’outsourcer Nel 2003 Deutsche Bank ha siglato un accordo con un outsourcer globale per le country europee che ha esternalizzato la gestione dell’infrastruttura, con l’obiettivo di trasformarla in un servizio: “Diciamo che negli anni abbiamo costruito una relazione che si rifà alla logica dell’Infrastructure as a Service, dove l’outsourcer si occupa della gestione e della domanda di capacity – racconta Riccardo Riccobene, responsabile progetti strategici global technology production IT Emea di Deutsche Bank. L’obiettivo finale a cui puntiamo è che sia l’outsourcer a occuparsi anche dell’acquisizione dei sistemi, ma questo nell’ottica di poter contare su una molteplicità di fornitori di servizi di infrastruttura e non più su un unico player come oggi. Vorremmo poter lavorare con un qualunque provider che dimostra la capacità di fornire determinati standard di servizio”. Una volta raggiunto l’obiettivo dei molteplici fornitori di Iaas, e sviluppati adeguati criteri di sicurezza, il passo succes- sivo per Deutsche Bank potrebbe essere quello di aprirsi ai cloud pubblici, questo perché: “Oltre certi volumi il cloud interno non riesce a reggere”. Il processo di Service Design si caratterizza come una funzione core per il lifecycle management degli ordini e quindi sarà un processo che in futuro difficilmente potrà andare in outsourcing. “Ma ciò che oggi vedo come sfida principale in questo momento è l’educazione del consumatore utente interno - sviluppatori, sistemisti... - che utilizzando i processi Iaas deve incominciare a pensare in modo diverso. Inoltre queste dinamiche dovranno essere estese anche ai consulenti esterni: chiunque lavori con DB deve aderire al 100% alle policy che sono fissate a livello aziendale”. A livello globale si sta parlando di più di 20.000 persone, mentre per l’Italia si tratta di circa 800 professionisti IT tra interni ed esterni.
  • 6. 15giugno 2013 delle macchine pari al 10%. Chiaramente non si può andare in cloud con un fattore di utilizzo di questo tipo. Grazie all’attuale configurazione del processo di definizione e acquisizione dei sistemi oggi pos- siamo perseguire l’obiettivo di arrivare a un indice di utilizzo delle macchine del 60%. E’ il target verso cui tutti cercano attualmente di tendere”. L’azienda italiana con molteplici business I molteplici business del Gruppo Feltrinelli sotto il profilo dell’IT sono tutti gestiti, insieme ad altre attività, da una società controllata al 100% dalla holding: LSI 150 – Logistica e Servizi Integrati che supporta i servizi trasversali per tutte le aziende di questa variegata realtà. “In questo momento ab- biamo due sale dedicate presso un data center Tier 4 di un fornitore specializzato – racconta Roberto Vidimari, system & network manager di LSI 150. Il provider fornisce anche i servizi di sicurezza con sonde IPS, IDS, firewalling, proxy e parte del net- working, tutto il resto viene invece gestito diretta- mente da noi”. Una delle due sale ospita due configurazioni rack a blade e alcuni server fisici, mentre nella seconda sala è ospitato il rack dedicato esclusivamente al sito di e-commerce: “Essendo in co-location tutta la responsabilità dell’acquisto dei sistemi dipende dalla nostra business unit. Per quanto riguarda i sistemi non dedicati all’e-commerce abbiamo un rack che consideriamo saturo, ovvero abbiamo a disposizione spazio ancora per ospitare 2 blade, ma non pensiamo di occuparlo completamente. L’altro è stato riempito al 70% ovvero mantiene la possibilità di inserire altre 5 blade. L’acquisto di un ulteriore nuovo rack con 18 blade è oggi subordi- nato all’approvazione e alle tempistiche dei nuovi progetti che dovrebbero essere discussi prossi- mamente”. La gestione della parte retail, invece, è realizzata con macchine fisiche posizionate nei diversi punti vendita, mentre centralmente è com- pletamente virtualizzata. I criteri che guidano la gestione delle risorse di server e storage, e quindi anche le loro politiche di acquisizione, si rifanno a logiche di capacità di ri- sposta rapide alle esigenze del business e a livelli di performance adeguati: “Siamo sicuramente attenti ai costi e sempre alla ricerca di ottimizzazioni, ma questo non deve pregiudicare la nostra capacità di dare risposte coerenti a determinati standard. Cerchiamo di compiere acquisti mirati con una vi- sibilità che al massimo è di tre anni per i server, mentre invece per lo storage abbiamo realizzato un importante investimento in una piattaforma di tipo enterprise lo scorso anno con un volume di dischi idoneo per poter supportare nei prossimi cinque anni le richieste del business”. I tre sistemi rack attivi hanno la possibilità tutti di installare fino a 18 blade ciascuno: “Cerchiamo sempre di avere un certo numero di lame attive e alcune in riserva così da non avere problemi e diffi- coltà nella gestione delle richieste non preventiva- te; una gestione centralizzata e interna oltre che in ambiente virtuale ci consente una buona reattività. Dato che l’hardware comunque costa sempre meno ed è sempre più potente, ci possiamo permette di garantire più potenza di quanto sia effettivamente richiesto. Inoltre, quando il budget ce lo consen- te, sostituiamo le lame più vecchie con elementi di ultima generazioni dotate di CPU più potenti e performanti”. Virtualizzazione in migrazione Tutti i sistemi sono costantemente monitorati sotto i profili delle performance, degli spazi e delle risor- se, questo permette di intervenire con una certa tempestività: “Quando ci rendiamo conto che le Roberto Vidimari, system & network manager di LSI 150, società di servizi interamente controllata da Gruppo Feltrinelli
  • 7. 16 giugno 2013 performance iniziano a degradare, allora vengono acquistate nuove lame per riportarle a quei livelli che noi riteniamo ottimali. Dovendo agire con le diverse società del gruppo che hanno dei focus di business diversi tra loro, cerchiamo di mixare risorse e richie- ste per mantenere adeguati i livelli di performance senza sprecare ri- sorse di elaborazione e memorizzazione”. Per la programmazione delle risorse sul fronte sto- rage non ci sono problemi. Con l’investimento nel 2012 in una piattaforma enterprise che può arrivare fino a 94 TB lo spazio disco a disposizione è ampio, mentre la programmazione delle risorse server su base triennale ha dei cicli di revisione in alcuni casi di almeno sei mesi, ma in generale si tratta di un processo annuale. “L’ambiente totalmente virtua- lizzato ci permette di raggiungere, a seconda dei diversi periodi dell’anno, un tasso di occupazione RAM e CPU tra il 50% e il 60% dei server installati; in questo momento riteniamo questo risultato sod- disfacente. Per i prossimi mesi prevediamo però di mettere in atto un programma di migrazione dalla piattaforma di virtualizzazione attuale a quella di un altro vendor. Le funzionalità delle due soluzioni sono ormai allineate e con performance paragona- bili. Oltre alla riduzione dei costi della manutenzio- ne software, con la nuova piattaforma andremo anche a coprire altre necessità come il backup per gli utenti mobili e una parte di funzionalità MDM, mobile device management, attualmen- te gestite con un’altra soluzione”. In questo contesto, la gestione delle ecce- zioni non rappresenta generalmente un problema: “La gran parte delle richieste riesce a essere coperta dalla riserva di capacità che abbiamo a disposizione. Poiché in questa azienda non man- cano mai idee e iniziative, la nostra La voce degli utenti Cloud? Non nei prossimi due anni Gruppo Feltrinelli non ha progetti a breve in relazione al tema cloud computing: “La parte dei server decentralizzati ancora operativi nella nostra infrastruttura in futuro dovrà essere rivista secondo i modelli del cloud privato o anche in altre configurazioni – spiega Roberto Vidimari, system & network manager di LSI 150, società di servizi interamente controllata dalla holding. Questo passaggio per ora non è stato ancora formalizzato, ma comunque stiamo valutando tutte le offerte e le possibilità presenti nel mercato. Credo che questa evoluzione si attuerà nel giro dei prossimi due/ tre anni”. In passato sono state fatte alcune sperimentazioni di servizi cloud erogati da terzi, ma senza risultati particolarmente positivi: “Abbiamo visto che questo approccio non va bene per la nostra struttura, preferiamo ragionare in una logica di cloud privato, dove siamo noi a governare il tutto, disponendo di adeguate competenze interne”. Un giudizio di merito che però va oltre: “Anche su soluzioni più semplici, come quelle di posta elettronica o quelle di tipo office, ci siamo accorti che i nostri livelli di servizio relativi alle performance di quanto potevamo assicurare inter- namente erano comunque migliori rispetto a quelli offerti dai fornitori cloud”. Il cloud computing implicherebbe inoltre anche un approccio organizzativo diverso da quello attuale: “Nel nostro caso è importante assicurare velocità e rapidità nei tempi di risposta, che solo una struttura interna può assicurare. Per anda- re in cloud inoltre bisognerebbe modificare i processi interni poiché non tutta la nostra struttura è abituata a ragionare in termini di SLA… Nei prossimi tempi ci saranno cambiamenti significativi soprattutto sul lato ERP e si ragionerà molto in termini di revisione dei processi”.
  • 8. 17giugno 2013 infrastruttura è comunque in grado di assorbire richieste anche sostanziali in poco tempo senza pregiudicare il livello di performance richiesto. Se la necessità è però più corposa, allora possiamo at- tingere a budget ad hoc definiti per questi progetti e non pesare sul normale budget IT. L’importante per noi è che tutte le nuove risorse siano coerenti al nostro disegno di standardizzazione”. Tempi di messa in opera da tagliare I tempi in cui si attua l’acquisto e la messa in pro- duzione di un nuovo blade, prevedono tendenzial- mente quattro settimane per la consegna da parte del fornitore dal momento in cui viene effettuato l’ordine e due settimane per la successiva configu- razione dello chassis, le lame di management e una lama server: “Certe volte riusciamo anche a stare nelle cinque settimane, ma sei è la regola. Rispetto al recente passato i nostri tempi sono diminuiti di almeno il 30%, ma è probabile che il business ci ri- chieda ancora di ridurre ulteriormente questi tempi. Purtroppo non credo che riusciremo a tagliare più di tanto i tempi tecnici del processo di acquisizione che viene controllato dal nostro fornitore, quindi quello che dovremmo cercare è ridurre i tempi di configurazione e installazione dei sistemi. Tutti gli obiettivi raggiunti grazie alla virtualizzazione sono stati agevolati grazie a una adeguata preparazione tecnica delle nostre risorse interne”. La multinazionale che opera in unparticolaremercatoverticale Carl Zeiss è un gruppo multinazionale che opera in modo esteso e pervasivo in tutti gli ambiti del mercato dell’ottica. Dall’ottica di precisione per l’a- rea oftalmica (lenti per occhiali da vista, da sole, a contatto), a quella per obiettivi fotografici (oggi anche in cellulari e smartphone) per binocoli, tele- scopi terrestri e satellitari, all’ottica per le macchine dei planetari (come quella del Planetario di Milano), dai sofisticati sistemi medicali, e le tecnologie per la chirurgia refrattiva, alle protesi per il cristallino, oltre infine alle macchine per micro e macro misu- razioni di assoluta precisione in ambito industriale, per cui oltre a i impianti ad hoc l’azienda fornisce anche una serie di servizi in house. Una realtà che spazia in diversi business tutti ad alto contenuto tecnologico e qualitativo che è univer- salmente riconosciuta per l’eccellenza nella qualità, nell’R&D e nell’innovazione di prodotto. E’ presente nel mondo con 43 filiali, oltre 100 rappresentanze e 14 centri di produzione. Carl Zeiss Italy conta circa 600 persone, gran parte di queste opera nell’area della distribuzione com- merciale, mentre per il business delle lenti da sole, dove l’Italia agisce da ‘headquarter’ per tutto il mon- do, c’è un sito di produzione a Castiglione Olona. Molteplici business coperti con realtà che vanno dalla pura distribuzione con magazzini remoti de- centralizzati, a entità di distribuzione e trasforma- zione locale, fino alla produzione vera e propria: “Un’articolazione complessa quindi, che si spec- chia inevitabilmente anche nel sistema informa- tivo – racconta Luigi Pignatelli, ICT manager di Carl Zeiss Italy - con applicativi diversificati che spaziano in molti ambiti. Una parte di questi è già centralizzata su un sistema ERP a singola istanza regionalizzato e installato in Germania, mentre una verticalizzazione della stessa piattaforma è stata sviluppata per le produzioni cinesi. Oltre a questo, però, manteniamo anche una logica applicativa de- centralizzata in diverse modalità a seconda della tipologia di business”. Tra queste anche una soluzione custom del ge- stionale oftalmico locale, a cui si integrano diverse componenti tecnologiche, spesso parte dell’offer- ta commerciale, come per esempio le applicazioni per i negozi di ottica, utilizzate per gli ordini delle Luigi Pignatelli, ICT manager di Carl Zeiss Italy
  • 9. 18 giugno 2013 lenti oftalmiche da ricetta, direttamente ai siti di produzione di Carl Zeiss. “Non è una banalità per- ché questo software è supportato da dei sistemi di calcolo molto complessi e sofisticati”. Lecaratteristichedelsistemainformativo L’azienda ha circa 15 sedi in Italia e dispone di due data center: uno più piccolo con sette macchine server e il più grande a Castiglione Olona con una ventina di sistemi, di cui una buona parte virtualiz- zati. L’applicazione custom gestionale per la divisio- ne oftalmica, in ambiente AS/400, è in outsourcing presso una terza parte, come allo stesso operatore sono affidati diversi sistemi in hosting di ambienti pubblici a supporto dei clienti. “All’interno di una VPN a livello globale certi ser- vizi vengono già erogati dalla struttura corporate con una logica pay per use in un ambiente ‘virtual cloud’: per un utente che aggiungo o tolgo ho un costo supplettivo o meno in base a un catalogo servizi messo a disposizione a livello corporate”. “Soprattutto in ambito storage, per i più svariati motivi dovuti alle diverse normative, oggi non c’è una predisposizione all’utilizzo del cloud puro. E’ chiaro però che la mia struttura può usufruire di servizi erogati in questo ambiente virtual cloud che possono essere forniti anche da terze parti. Oggi presso il nostro outsourcer locale abbiamo a disposizione alcune aree di storage che possono essere co-utilizzate da diverse divisioni”. A parte questo però, la gestione dello storage è in gran parte affidata ai data center di Carl Zeiss Italy in configurazione sia SAN sia interna ai server. Vie- ne direttamente acquisito sul mercato e ogni anno il volume da gestire è di qualche decina di TB. “Per garantire servizio e prestazioni possiamo agire con un’ampia autonomia di decisione, mentre su altri punti seguiamo delle linee guida dettate dalle cor- porate. C’è autonomia gestionale per comprare e gestire localmente hardware, software e quant’altro; ma dobbiamo garantire il più possibile la standar- dizzazione dei sistemi. Questo per avere una ge- stione coerente dei livelli di security, delle policy di utilizzo dei sistemi e per disporre di un più sempli- ce consolidamento dei dati sia finanziari di budget di gestione dell’IT sia di parco hardware installato; e con un occhio sempre attento alla possibilità di affidare dei servizi in outsourcing”. La gestione della domanda Per quanto riguarda server e storage, le dinamiche di acquisizione sul mercato di queste risorse sono radicalmente cambiate rispetto al recente passato: “Dal mio arrivo nel 2012, l’esercizio che cerchiamo di fare è quello di predisporre una programmazione più strutturata di questi acquisti – spiega Pignatelli. Oggi non ragioniamo più con la logica di compie- re un grosso investimento in un sistema di storage particolarmente potente che poi magari può risul- tare sovradimensionato per un lungo periodo di tempo. Per razionalizzare i costi dei sistemi e ren- derli più efficienti tendiamo a seguire la domanda cercando di ragionare con un approccio proattivo ma commisurato all’esigenza”. L’obiettivo è seguire la domanda del business, evi- tando il più possibile invece di procedere per ‘grandi progetti’, che implicano anche un supporto infra- strutturale consistente. Una linea politica che però può essere messa in discussione quando la corpora- tion lancia grandi iniziative IT di standardizzazione. Ma questa è l’unica eccezione. “Normalmente ogni anno in sede di definizione del budget IT facciamo delle stime in eccesso di quelli che possono essere i volumi che andremo ad af- frontare nei successivi 12 mesi, e su questo pianifi- chiamo i nostri acquisti, cercando di scadenziarli nel tempo. Verso metà esercizio le previsioni vengono poi riviste, per capire se siano ancora in linea con le richieste del business o meno, rivedendone la pianificazione, in più o in meno, a seconda dei fat- tori eventualmente cambiati. Quello che vogliamo evitare è di trovarci con dei periodi di ‘sofferenza’ La voce degli utenti Lo storage può diventare un servizio ai clienti Lo storage di Carl Zeiss Italy oggi è centralizzato, ma un domani potrebbe essere anche più distribuito: “Attualmente, per esempio, se un cliente ha un problema perché una macchina genera un’immagine di tipo medicale che non è co- erente con le proprie aspettative, non potendo condividere queste immagini di grandissime dimensioni per i vincoli d’accesso alla VPN aziendale, spesso si presenta la necessità d’intervenire in loco con un tecnico che va a controllare quale possa essere il problema – racconta Luigi Pignatelli, ICT manager della società. Se invece fossimo in grado di acquisire in casa l’immagine del cliente per analizzarla, ottimizzandone l’acquisizione in un ambiente intermedio (fuori dalla VPN aziendale), allora potremmo risparmiarci il costo e il tempo speso per il viaggio presso il cliente; e i tempi di risposta del servizio sarebbero quasi immediati, con benefici anche sul fronte della relazione”.
  • 10. 19giugno 2013 del business, a causa della mancanza di tutte le ri- sorse necessarie, ma anche il rischio di avere lunghi periodi di sovraccapacità inutilizzata. Sono chiara- mente discorsi teorici, a cui si tende ad avvicinarsi, anche se non sempre con successo”. Nel caso però ci siano grandi progetti da portare avanti su tempi lunghi, anche su più esercizi, allora le soluzioni lasciano spazio a investimenti di largo respiro e non a soluzioni tattiche. “Semmai in que- sti casi c’è la necessità di ragionare su quale sarà l’evoluzione prospettica del ‘demand’ di progetto, e quindi rapportarne un processo di pianificazione pa- rallelo a quello focalizzato sull’operatività standard”. Lo scopo però non è solo quello di ottimizzare i co- sti, ma anche quello di raggiungere il miglior livello di efficienza per i servizi erogati ai clienti. “Natural- mente anche l’IT della filiale italiana ha dei piani di sviluppo a lungo termine, oltre a quelli corporate, a cui facciamo comunque riferimento per definire le nostre strategie annuali”. Rispetto alle tematiche di storage e della relativa gestione, le attuali tecnologie di virtualizzazione server assicurano flessibilità e quindi una maggiore agilità nel seguire la domanda del business: “Sia- mo partiti un po’ tardi, ma stiamo recuperando ed entro fine anno raggiungeremo il traguardo della virtualizzazione su almeno l’80% dei server, e suc- cessivamente quello del 100%”. Le richieste ‘urgenti’... non vanno in cloud “Nelle multinazionali la richiesta ‘urgente’ è un con- cetto molto complicato, poiché ci sono sempre pro- cessi di verifica e approvazione interni che portano via il loro tempo, soprattutto quando è chiamata in causa la spesa di capitale. In ambito storage comun- que non abbiamo problemi, semmai è più difficile implementare la richiesta sul fronte dei server, in quanto per una spesa in conto capitale l’approva- zione porta via diverse settimane. Questo a parte quelle scelte obbligate ‘compulsory’, che a volte devono essere fatte in breve tempo, perché una nuova legge o normativa ha fissato determinate regole, da mettere in esecuzione in un periodo di tempo ristretto, o entro una data specifica”. In questo contesto però il cloud non sarà, a breve, un’opzione che cambia le regole del gioco: “Sebbe- ne siamo utenti di Salesforce.com, storica soluzione cloud, e abbiamo sperimentato il cloud in alcune soluzioni di nicchia, per la nostra tipologia di value proposition e know-how tecnologico, abbiamo esi- genza di livelli di riservatezza molto elevati. Molte informazioni sono implementate con sofisticate soluzioni di crittografia a livello di gruppo, e que- sto è un aspetto che diventa complicato gestire in cloud pubblico. Non da meno, ci sono complica- zioni dovute alle diverse normative sulla privacy nei vari Paesi. Non credo quindi, che svilupperemo significativamente del cloud ibrido o pubblico in un medio periodo di due o tre anni, ma pensando con una prospettiva più lunga, in futuro si potran- no certamente trovare tecnologie e soluzioni più interessanti di quelle disponibili oggi”.