SlideShare uma empresa Scribd logo
1 de 20
Baixar para ler offline
EFFICIENZA E OTTIMIZZAZIONE
DIVENTANO NATIVE
NELLO STORAGE IBM




Featuring research from
NELL’EFFICIENZA LA CHIAVE
    PER GESTIRE I DATI
    Crescono di pari passo le fonti e la quantità di informazioni da analizzare
    e avere a disposizione. Di converso, stagnano o si riducono i budget a
    disposizione dell’IT. La quadratura del cerchio si trova nell’adozione di uno
    storage capace di rendere disponibile ciò che serve in modo autonomo e
    dinamico.

    P   er chi si occupa di storage, la sfida di questo
        periodo congiunturale appare legata soprat-
    tutto alla necessità di gestire e archiviare quanti-
    tà crescenti di dati ma allo stesso tempo, erogare
    servizi su standard qualitativi più elevati e tenere
    i costi sotto controllo.

    Il punto di partenza di ogni riflessione rimanda
    inevitabilmente al concetto di Big Data, ovvero
    alla moltiplicazione senza sosta di dati da elabo-
    rare, che arrivano dalle fonti più disparate. IBM
    stima che il 90% dei dati oggi in circolazione sia-
    no stati creati solo negli ultimi due anni.

    Mentre le fonti di divulgazione e circolazione         resto su sistemi più economici. Più questi pro-
    delle informazioni continuano ad aumentare, il         cessi vengono automatizzati e maggiore è l’effi-
    budget per l’IT in generale e lo storage di conse-     cienza che si ottiene. Per non continuare ad ag-
    guenza non seguono certo lo stesso andamento.          giungere capacità, inoltre, appare opportuno far
                                                           leva sulla virtualizzazione e il cloud, ma anche
    Inevitabilmente, dunque, il modo per far fronte        su tecnologie di compressione, deduplica, thin
    alle necessità del periodo passa per la ricerca        provisioning e thin replication.
    di efficienza nell’infrastruttura. D’altra parte,
    le stime dicono che ancora oggi l’utilizzo della       I recentissimi annunci, che puntano a realizzare
    capacità a disposizione si trova mediamente al         una infrastruttura storage di nuova generazione,
    di sotto del 50%, soprattutto a causa dell’imple-      integrano tutti questi aspetti, confermando il
    mentazione, sedimentata negli anni, di soluzioni       concetto di disponibilità “by design” che già
    poco flessibili.                                       contraddistingue la gamma di server PureSy-
                                                           stems. La possibilità di preservare gli investi-
    Nella visione olistica di IBM, l’efficienza dello      menti già effettuati, facendoli però convogliare
    storage si realizza assommando diversi elemen-         in una logica votata alla ricerca costante dell’ef-
    ti. I dati devono trovarsi nel posto più indicato      ficienza, in combinazione con la presenza nativa
    rispetto al loro livello di criticità o consultazio-   di elementi di automazione e virtualizzazione,
    ne. Sui dispositivi ad alte prestazioni, certamen-     consente alle aziende di essere già pronte ad af-
    te più costosi, è opportuno far risiedere solo ciò     frontare anche le sfide che il mercato proporrà
    che riveste maggiore importanza, spostando il          negli anni a venire.




2
Dagli archivi Gartner:



INFRASTRUTTURA
INFORMATIVA E BIG DATA
PANORAMICA SULLE
PRINCIPALI INIZIATIVE
Il concetto di infrastruttura
informativa deve evolversi
per consentire alle imprese
di gestire le informazioni
in quanto prezioso asset
aziendale, alla luce dei nuovi
modelli di distribuzione dei
dati e delle sfide imposte dalla
crescita esplosiva di questi
ultimi. Il presente documento
descrive i passi critici e gli
ostacoli da affrontare per
superare questa sfida.
ANALISI                                               mail, documenti, audio e video. Per adottare un
L’infrastruttura informativa è costituita da un in-   approccio strategico alla gestione delle informa-
sieme di funzionalità tecnologiche per suppor-        zioni che consideri i dati come asset da sfruttare
tare obiettivi di gestione delle informazioni. Con    per ottenere un vantaggio competitivo, è neces-
il termine “Big Data” si fa riferimento a informa-    saria un’infrastruttura informativa ben organiz-
zioni caratterizzate da dimensioni estremamen-        zata, agile ed efficace. Le tradizionali tecnologie
te elevate, eterogeneità, complessità ed esigen-      di gestione delle informazioni non sono in grado
ze di elaborazione rapida.                            di far fronte all’esplosivo volume di dati etero-
                                                      genei presenti in molte aziende. Il grande valo-
L’approssimarsi di sfide incombenti è indicato        re e le potenziali responsabilità che si celano in
dalle previsioni secondo le quali entro il 2015 i     questi dati sta suscitando un nuovo interesse
dispositivi intelligenti nel mondo saranno 200        verso l’infrastruttura informativa. Le nuove ten-
miliardi ed entro il 2020 il numero di dati invia-    denze in tale infrastruttura cambieranno il modo
ti via Web ogni giorno sarà pari a 275 esabyte,       di concentrare e distribuire tecnologie e com-
nonché dal crescente desiderio di utilizzare e-       petenze di gestione delle informazioni, con l’o-




                                                                                                            3
biettivo di migliorare radicalmente l’efficacia in           neità, complessità e velocità contribuiscono
    termini di costi, agilità, trasparenza di gestione e         alla nascita di sfide impegnative in termini di
    uso degli asset informativi.                                 gestione delle informazioni.
                                                            •	   Verificare che vi siano competenze, ruoli e
    Fattori d’importanza dell’infrastruttura                     strutture organizzative adeguati per sfrutta-
    informativa e dei progetti basati sui Big                    re queste tendenze chiave. Infrastruttura in-
    Data:                                                        formativa e progetti basati sui Big Data non
                                                                 sono da ricondurre solo alla tecnologia, poi-
    A)	     Per i CIO                                            ché un approccio esclusivamente tecnologi-
                                                                 co non garantisce alcun successo.
    I “Big Data” rappresentano per i CIO una stra-
    ordinaria opportunità per aggiungere valore             GESTIONE DELL’INIZIATIVA
    all’attività aziendale attraverso il recupero di        DI INFRASTRUTTURA INFORMATIVA
    dati analitici e l’identificazione di modelli dalla     E DEI PROGETTI BASATI SUI BIG
    grande quantità di informazioni disponibili. Per        DATA MEDIANTE QUESTO
    ottenere questo vantaggio, i CIO devono:                APPROCCIO STRUTTURATO
    •	 Collaborare con i leader aziendali per iden-
         tificare le opportunità rilevanti e sviluppa-      Strategia e pianificazione: redigere una bozza di
         re una visione condivisa sulle informazioni        atto costitutivo in allineamento con gli obiettivi
         dell’impresa, tenendo conto delle fonti di in-     aziendali con lo scopo di ottenere un consenso
         formazioni più recenti quali social network e      sulla visione e sul compito alla base del progetto.
         tecnologie operative.                              Delineare l’ambito del progetto e definirne risor-
    •	 Indirizzare le proprie organizzazioni verso la       se, budget e sistemi di governance. Integrare tut-
         modernizzazione dell’infrastruttura informati-     to questo nei piani IT strategici e aziendali.
         va e l’allineamento di tecnologie e competen-
         ze di gestione delle informazioni per ottenere     Creazione di una soluzione: definire l’architettura,
         una base coerente e agile per l’accesso, la di-    la tecnologia e gli standard del progetto. Model-
         stribuzione e il controllo delle informazioni.     lare i requisiti aziendali e descrivere nel dettaglio
    •	 Gestire l’infrastruttura informativa e i pro-        le specifiche per la distribuzione della soluzione.
         getti basati sui Big Data come competenze          Suggerire procedure per l’implementazione del
         e programmi continui invece che come pro-          progetto. Definire i dettagli del processo e i criteri
         getti discreti a breve termine. I progetti basa-   di calcolo dei risultati. Comunicare il piano.
         ti sui Big Data non possono essere conside-
         rati come avulsi dal lavoro di gestione delle      Selezione della soluzione: impostare requisiti ed
         informazioni (e dell’infrastruttura correlata)     emettere RFP. Analizzare le informazioni del mer-
         già in corso nell’azienda.                         cato. Valutare le opzioni di fornitori e provider di
                                                            servizi. Scegliere tecnologie e fornitori/provider
    B)	     Per i Responsabili IT                           di servizi. Negoziare accordi sui livelli di servizio
                                                            e contratti.
    La modernizzazione dell’infrastruttura informa-
    tiva e la preparazione a gestire progetti basati        Implementazione: fornire personale e gestirne
    sui Big Data richiederanno ai responsabili IT di:       l’implementazione. Coordinare la distribuzione
    •	 Valutare lacune e sovrapposizioni nelle tec-         della soluzione. Creare l’ambiente di sviluppo e
        nologie di gestione delle informazioni e svi-       eseguire test. Richiedere il feedback degli utenti.
        luppare un piano di razionalizzazione o di in-      Monitorare i rischi.
        cremento delle capacità in sede.
    •	 Fissare gli obiettivi di una visione strategica      Azione ed evoluzione: realizzare e gestire l’im-
        per l’infrastruttura informativa attraverso uno     plementazione. Effettuare analisi sulla base
        schema di funzionalità IT. I responsabili IT po-    di feedback, rischi e cambiamenti dei requisiti
        tranno quindi realizzare una roadmap mirata         aziendali. Misurare le prestazioni. Monitorarne
        a sostenere le esigenze informative in modo         l’uso e la conformità. Sviluppare competenze e
        efficiente e indipendente dalle applicazioni.       definire le prassi migliori per gli utenti. Perfezio-
    •	 Comprendere che con il termine “Big Data”            nare i processi di governance.
        si fa riferimento a molto di più che a volumi
        di dati poiché dimensioni elevate, eteroge-                   Fonte Gartner: Ricerca G00214426, Ted Friedman, 22 July 2011




4
COME STA EVOLVENDO
IL CICLO DI VITA DEI DATI
Secondo Giovanni                     di quanto già a disposizione e
                                     la definizione di percorsi che
Calvio, manager of                   tengano conto di quanto serve
Storage Platform di                  oggi e, nei limiti del possibile,
IBM Italia, le aziende               anche di quanto potrà accade-
                                     re domani. In sintesi un’infra-
oggi hanno la                        struttura che possa evolvere
necessità stringente                 realmente in funzione delle
di poter elaborare                   stesse esigenze. Della realtà
                                     presente sul mercato italiano
e analizzare                         e dell’evoluzione tecnologica
rapidamente                          in corso, abbiamo parlato con
le informazioni                      Giovanni Calvio.

necessarie per                       Quanto vale ancora oggi
prendere decisioni                   l’assioma “storage = capa-
                                     cità” e nient’altro? In qua-
strategiche. Uno                     le misura nella realtà delle
                                                                         e la qualità dei dati presenti
                                                                         e, soprattutto, occorre capi-
storage razionalizzato               aziende, soprattutto italia-        re quali sono le nuove moda-
ed efficiente deve                   ne, la risposta all’aumento         lità che gli utenti usano per
                                     progressivo dei dati da
supportare questa                    gestire si concretizza sem-
                                                                         accedere alle informazioni. I
                                                                         driver di business, oggi, stan-
esigenza primaria.                   plicemente nell’aggiunta            no spingendo in tre direzioni:
                                     di nuovi dispositivi?               potenziamento dell’agilità dei

L   a gestione del ciclo di vita
    delle informazioni è costru-
ita ancora intorno a miti, come
                                     Non solo in Italia ma un po’ in
                                     tutto il mondo, spesso si con-
                                                                         sistemi, miglioramento della
                                                                         capacità di prendere decisioni
                                                                         in azienda e semplificazione
la perdita progressiva di valore     tinua a pensare che l’informa-      delle operazioni ottimizzando
nel tempo dei dati e la prevedi-     zione perda valore nel tempo        i workload presenti nel data
bilità delle modalità di accesso     e soprattutto che le modalità       center. Rendere più efficiente
da parte degli utenti. La mag-       utilizzate da ciascun utente per    lo storage significa anche es-
gior parte delle infrastrutture      accedere all’informazione sia-      sere pronti a soddisfare i futuri
storage sono costruite intorno       no sempre prevedibili. Questo       bisogni, che crescono nel tem-
a queste convinzioni, che in re-     presupposto porta alla convin-      po in maniera imprevedibile.
altà oggi valgono assai poco.        zione che periodicamente ci
Il successo di un business si        sia bisogno di nuova capacità       Quali sono, rispetto allo
basa sempre di più sulla capa-       all’interno di un data center.      scenario descritto, le
cità di elaborare rapidamente i      Invece, il futuro richiede un       esigenze o le evoluzioni
dati, analizzarli, renderli dispo-   approccio diverso allo storage.     che accomunano le grandi
nibili come e quando servono.        Sempre più, infatti, sono le ne-    aziende e quelle medio-
E in questo contesto è impor-        cessità del business a guidare      piccole e dove invece
tante avere una corretta stra-       il flusso delle informazioni e da   si evidenziano ancora
tegia in campo tecnologico,          qui nascono le opportunità le-      importanti differenze?
che non si limiti ad accumulare      gate allo smarter computing, al
dispositivi e capacità nei data      cloud e alla business analytics.    Ci sono oggi più analogie che
center, ma punti sulla raziona-      Abbiamo sempre più bisogno          elementi distintivi. Le esigen-
lizzazione, l’utilizzo ottimizzato   di conoscere meglio il valore       ze e le sfide sono abbastanza




                                                                                                             5
I passi da seguire per ottimizzare i carichi di lavoro




    Fonte: IBM


    simili anche se chiaramente         utilizzando al meglio quanto è       re Optimization, emerge che
    nei grandi data center ci sono      già presente nei data center,        in media il 50% della capacità
    maggiori risorse a disposizio-      evitando in questo modo di           storage presente in un data-
    ne e un budget in valore asso-      acquisire capacità in eccesso.       center è inutilizzato.
    luto più importante. Tuttavia,      Quando si realizzano progetti
    in questo momento è dalla fa-       di consolidamento, general-          E allora da dove si può
    scia medio-bassa del mercato        mente si affronta anche il tema      partire per avere uno
    che arriva una maggiore spin-       della data protection e data re-     storage più efficiente?
    ta all’innovazione. Nelle realtà    tention, utilizzando tecniche
    più piccole le strutture sono       automatiche di ottimizzazione        Sicuramente dal consolida-
    più snelle e la reattività è più    della capacità.                      mento, anche se un primo vero
    immediata. Di conseguenza, i                                             passo in direzione dell’efficien-
    budget limitati portano a indi-     Quanto sono consapevoli              za si compie con il tiering del
    viduare nuovi approcci e nuo-       le imprese di possedere              dato, rendendolo automatico
    ve soluzioni.                       capacità inutilizzata e di           o utilizzandolo in modo nativo
                                        poter recuperare spazio              all’interno dei sistemi. In que-
    Quali sono, in ambito               senza dover aggiungere               sto modo, si migliora l’efficien-
    storage, i fattori di               nuovo storage?                       za su ogni singolo carico appli-
    maggior interesse per le                                                 cativo, evitando investimenti
    imprese?                            Per essere sinceri, ben poche        onerosi, come nel caso dell’ac-
                                        aziende sono in grado di valu-       quisto di dischi allo stato solido
    Certamente sono molto senti-        tare correttamente i loro livelli    per il solo obiettivo di aumen-
    ti i temi del consolidamento e      di utilizzo delle risorse storage.   tare le performance. A questo
    del miglioramento delle per-        Per IBM invece si tratta di un       si può aggiungere tutto quanto
    formance, soprattutto in dire-      punto focale e la nostra offerta     concerne la compressione del
    zione della velocità di accesso     va proprio in questa direzione.      dato, che può avvenire a mon-
    ai dati. Sta emergendo grande       Da circa un paio di anni, IBM        te dello storage primario e non
    interesse per le nuove modali-      offre ai propri clienti la possi-    ha impatti sulle applicazioni o
    tà di archiviazione dei dati, in    bilità di effettuare un’analisi      sui carichi di lavoro che stanno
    particolare per le tecnologie di    precisa del livello di efficienza    funzionando. Si prepara così il
    deduplica. La tendenza è quel-      del proprio storage in modalità      terreno per la virtualizzazione,
    la di virtualizzare l’infrastrut-   completamente gratuita. Esa-         un passaggio che prima o poi
    tura storage, cercando di pro-      minando i risultati degli studi,     occorre affrontare, soprattutto
    teggere gli investimenti fatti e    chiamati Storage Infrastructu-       per chi pensa a un orizzonte fu-




6
Cloud e virtualizzazione si integrano nell’infrastruttura storage




Fonte: IBM


turo orientato al cloud. Due anni     immediate e legate alla qualità     poi declinarle per le esigenze
fa di Big Data non si parlava af-     e al valore del dato e i budget     delle piccole e medie imprese...
fatto e oggi, invece, è un tema       andranno mantenuti leggeri. In      La nostra strategia per lo sto-
all’ordine del giorno. Ma fra altri   questo contesto IBM si sente in     rage è chiara e coerente e la
due o tre anni cosa succederà?        grado di dare risposte concrete     ricchezza della nostra offerta
Per questo è importante costru-       nell’interesse del business delle   può rispondere ad ogni tipo di
ire un’infrastruttura che serva       imprese: parliamo di un’azien-      esigenza, in funzione dei diver-
a proteggere gli investimenti         da che vanta oltre cent’anni di     si budget. I dati ci confermano
fatti anche in funzione di future     esperienza nella soluzione di       che il mercato ha compreso il
evoluzioni oggi sconosciute. Le       problemi complessi, ha sempre       valore delle nostre soluzioni e
richieste degli utenti continue-      investito considerevoli risorse     apprezza la nostra coerenza e i
ranno ad aumentare e saranno          economiche nella ricerca & svi-     risultati che abbiamo ottenuto
sempre diverse, le decisioni di       luppo, ha creato soluzioni avan-    sul mercato italiano sono il no-
business saranno sempre più           zate per il mondo enterprise per    stro fiore all’occhiello.


Gli effetti dell’evoluzione verso Big Data e Business Analytics




Fonte: IBM




                                                                                                             7
L’ORGANIZZAZIONE
    DELLO STORAGE CONTA
    PIÙ DELLA CAPACITÀ
    Per molto tempo, alla crescita dei dati in azienda è stata associata la progressiva
    aggiunta di nuovi dispositivi di memorizzazione. L’esplosione degli ultimi anni sta
    rendendo sempre più importante la definizione di una strategia basata sull’analisi
    di quanto circola in azienda e una gestione maggiormente proattiva.

    I crescenti volumi di informa-
      zioni da gestire in azienda,
    gli obblighi collegati ai temi
                                          indispensabili per le aziende
                                          che vogliono stare al passo,
                                          mentre i dati da trattare e ana-
                                                                               cerca IBM, in particolare con la
                                                                               memoria Racetrack, che com-
                                                                               bina i benefici degli hard drive
    della governance e complian-          lizzare continuano a crescere.       magnetici con quelli a stato
    ce normativa e la ridondanza          In base a un’indagine condot-        solido, per arrivare a poter ela-
    dei dati sono fattori che stanno      ta da IBM nel 2011, il 57% dei       borare imponenti quantità di
    spingendo i responsabili dei si-      decision maker dell’IT hanno         dati memorizzati in meno di un
    stemi informativi alla ricerca di     ammesso che la propria orga-         miliardesimo di secondo.
    soluzioni storage che, nell’ac-       nizzazione ha bisogno di un
    cezione cara a IBM, potremmo          nuovo approccio allo storage,        I dati collegati
    definire “smart” ovvero intelli-
                     ,                    utile per gestire la crescita fu-    ai carichi di lavoro
    genti, efficienti e flessibili allo   tura.                                Big data, tuttavia, non signifi-
    stesso tempo.                                                              ca automaticamente “bigger
                                          La materia è peraltro com-           storage”. Non ci può e non ci
    Non solo i CIO, ma anche i re-        plessa e può essere esamina-         deve essere una correlazione
    sponsabili di linee di business       ta da differenti punti di vista.     diretta fra la quantità di dati
    o il top management hanno             Storicamente, si è portati a         da gestire e i Terabyte a dispo-
    compreso come lo storage e la         considerare il problema es-          sizione in azienda, anche se il
    protezione dei dati siano com-        senzialmente dal punto di vista      costo dell’hardware è diminui-
    ponenti critiche di un’evolu-         del supporto fisico. È da oltre      to negli anni. Questo ha spinto
    zione tecnologica sempre più          vent’anni che le nuove quanti-       molte realtà ad ampliare sem-
    connessa alla gestione dei big        tà di dati creati sono utilizzati    plicemente la capacità, una
    data, al cloud computing e alle       e veicolati in formato digitale. I   scelta certamente più comoda
    applicazioni analitiche. Questi       concetti di “disco” e “storage”      rispetto a una seria analisi dei
    elementi fanno anche parte del        sono stati per lungo tempo           dati immagazzinati, quali di
    trend verso “l’internet delle         considerati quasi sinonimi ed è      questi sono critici e per quali
    cose”, ovvero il complesso di         sulla capacità che si è concen-      motivi, quali vadano conser-
    informazioni che risiede in un        trata a lungo la ricerca. Dagli      vati, dove e per quanto tempo.
    crescente numero di sensori           obsoleti floppy e hard disk del-
    e microchip integrati negli og-       le prime generazioni, si sono        Proprio l’esplosione dei dati
    getti della nostra vita quotidia-     succedute nel tempo nuove            alla quale stiamo assistendo,
    na. L’obiettivo è rendere tutte       tecnologie concentrate sulla         invece, dovrebbe indurre le
    queste cose interconnesse, in         densità dei supporti e l’acces-      aziende a definire una strate-
    modo da ottenere un livello           so ai dati in essi contenuti.        gia storage basata sulla cura
    più alto di “intelligenza”.           Ancora oggi una consistente          dei dati e la loro gestione
                                          attenzione è dedicata a questi       proattiva lungo tutto il ciclo
    L’efficienza dello storage e la       aspetti, come dimostrano svi-        di vita. La selezione, la valu-
    protezione dei dati critici sono      luppi recenti proprio della ri-      tazione e l’organizzazione dei




8
dati sono elementi-chiave del         costo più elevato, lasciando su      modo il più possibile auto-
lavoro necessario per rendere         supporti come i nastri i dati da     matizzato. Sfruttare al meglio
i dati stessi accessibili e inter-    conservare per motivi di leg-        i dispositivi a bassa velocità
pretabili dalle persone giuste        ge o di opportunità, ma poco         abbassa i costi di utilizzo e di
in azienda, in base a ruoli e pri-    critici per il business ordinario    consumo energetico, miglio-
vilegi assegnati.                     dell’azienda. Laddove possibi-       rando l’efficienza complessiva
                                      le, poi, occorre creare un mag-      dell’infrastruttura. Allo stesso
Il tema dei Big Data rappresen-       gior livello di interazione fra      modo, la deduplica può essere
ta al momento l’elefante nel-         le informazioni, consolidando        ormai considerata una modali-
la stanza e le proiezioni degli       silos preesistenti ma senza in-      tà standardizzata per ridurre la
analisti parlano di un aumento        cidere necessariamente sulla         quantità di storage necessaria
dell’800% nei prossimi cinque         capacità a disposizione, quindi      per la gestione di grandi set di
anni. Per affrontare corretta-        attraverso processi di virtualiz-    dati, al pari della compressio-
mente la sfida, l’IT deve farsi       zazione o fruizione in modalità      ne, ben sapendo che la prima
saggia e attivare una strategia       cloud.                               si adatta in modo particolare ai
a livelli, necessaria per rendere                                          file di testo, mentre la seconda
le informazioni più importanti        L’utilizzo di una logica a livelli   può essere impiegata per do-
più accessibili delle altre. I dati   è critica per cercare di ridurre     cumenti audio e video.
devono essere pertanto collo-         i costi. Questo significa non
cati nel posto giusto e collega-      solo collocare, per esempio,         Il disegno dello storage come
ti ai carichi di lavoro essenziali    i dati fondamentali su dispo-        “sistema efficiente”, attraver-
per il business aziendale. Quan-      sitivi a stato solido e quelli       so l’ottimizzazione dell’infra-
to realmente utile e a maggiore       non strutturati usati una volta      struttura, l’automazione dei
tasso di fruizione va collocato       sola su nastri, ma anche fare        processi e il corretto calcolo
su dispositivi a tecnologia più       in modo che gli spostamen-           del TCO rappresenta oggi uno
avanzata, per garantire presta-       ti verso l’alto o il basso della     dei principali fattori di vantag-
zioni ed efficienza, anche se a       piramide possa avvenire in           gio competitivo.




                                                                                                               9
LA VISIONE DI IBM
     SI PROIETTA NEL FUTURO
     Messo a punto un concetto di infrastruttura storage che si basa
     sulle evoluzioni portate avanti negli ultimi anni, ma è già pronta ad
     accogliere le sfide che arriveranno in futuro. La chiave di volta sta nella
     disponibilità nativa di elementi come il right tiering, la virtualizzazione
     e tecniche evolute di compressione in tempo reale.

     I l mutevole mondo nel quale viviamo rende at-
       tuali in un dato momento problematiche che
     solo qualche tempo prima non venivano nem-
                                                            Su queste basi, IBM ha costruito la propria visio-
                                                            ne orientata a un’infrastruttura storage di nuova
                                                            generazione, un concetto, prima ancora che un
     meno prese in considerazione. Il fenomeno della        insieme di tecnologie, con focalizzazione sulle
     moltiplicazione dei dati da gestire per un’azien-      aree di potenziale riduzione dei costi e la predi-
     da non è nuovo di per sé, ma temi come i Big           sposizione “nativa” agli sviluppi che arriveranno
     Data o gli strumenti di analisi evoluta non erano      anche a medio e lungo termine. L’ottimizzazione
     due anni fa al centro dell’attenzione dei manager      dei carichi di lavoro esistenti, il miglioramento
     quanto lo sono oggi. Ed è possibile, se non pro-       dell’agilità che passa attraverso l’adozione del
     babile, che fra due o tre anni qualche altro tema o    cloud computing e l’integrazione fra Business
     stringente esigenza avrà spostato altrove il cen-      Analytics e Big Data sono i business driver che
     tro dell’interesse.                                    oggi maggiormente coinvolgono lo storage.
                                                            Qualcosa di nuovo arriverà di certo a medio ter-
     Il tema della gestione dei dati è fra quelli che me-   mine. Come prepararsi a questo percorso?
     glio si adattano a questo genere di riflessioni. La
     crescita dei volumi è un dato di fatto ampiamen-       La risposta di IBM sta in una proposta infra-
     te documentato: il clima competitivo e le diffi-       strutturale nella quale l’efficienza dello storage
     coltà congiunturali hanno elevato il valore delle      è integrata a livello di progettazione, l’ottimiz-
     informazioni e le aspettative di manager e utenti      zazione avviene in modo automatizzato, la vir-
     sulla capacità dell’IT di saper fornire quanto ser-    tualizzazione è presente nativamente e tutti i
     ve per fare analisi e prendere decisioni in modo       processi sono guidati da policy definite e stret-
     rapido ed efficace. Per chi governa i sistemi in-      tamente legate alle applicazioni. In questo modo
     formativi, con budget essenzialmente piatti, la        si ottiene una riduzione dello spazio fisico occu-
     necessità di gestire dati in continua crescita si      pato fino all’80% e della complessità fino al 30%,
     scontra con una complessità infrastrutturale           un aumento dell’utilizzo di quanto esistente fino
     dettata dalla presenza di architetture poco fles-      al 30%, performance applicative triplicate e una
     sibili ereditate dal passato e dall’incremento del-    diminuzione dei costi fino al 50%.
     la complessità derivata dallo sviluppo della vir-
     tualizzazione e dell’interconnessione di sistemi       L’ottimizzazione dei carichi di lavoro esistenti può
     e dispositivi di varia natura.                         essere certamente un buon punto di partenza.
                                                            Anche IBM ha preso da qui le mosse per pro-
     Un’evoluzione basata sui business driver               porre già oggi alle aziende tecnologie e soluzioni
     Un approccio solo reattivo a queste sfide porta        utili per aumentare l’efficienza dello storage. La
     inevitabilmente a una pura crescita dei costi, in      gestione dinamica e distribuita multilivello (con
     particolare dello storage rispetto a quelli IT ge-     IBM Easy Tier e Active Cloud Engine) e le tecnolo-
     nerali. Individuare le inefficienze e ottimizzare i    gie di compressione, deduplica, thin provisioning
     processi può essere un buon punto di partenza,         e thin replication consentono di muovere i dati
     ma le esigenze presenti e future richiedono un         sui dispositivi più adatti in base alle esigenze di
     nuovo approccio allo storage, fatto di intelligen-     utilizzo e consultazione, così come di ridurre lo
     za, efficienza e automazione.                          spazio fisico occupato.




10
Gli    ultimi aggiornamenti di gamma
   La nuova visione IBM per una infrastruttura storage di nuova generazione è corroborata da numerosi
   aggiornamenti nella gamma di prodotti.

   I prodotti della gamma IBM Storwize V7000 integrano la tecnologia Real-time Compression, che
   consente di utilizzare la compressione anche per i dati di produzione, a differenza di quanto accade
   nei prodotti concorrenti, che ne consentono l’uso solo per i dati a bassa attività. Sono stati aggiunti,
   inoltre, il supporto di Fibre Channel over Ethernet e del clustering a quattro vie.
   Le stesse migliorie sono state apportate alla versione 6.4 di SAN Volume Controller, che in più ag-
   giunge la migrazione trasparente dei volumi virtuali fra nodi SVC, in modo da massimizzare la fles-
   sibilità delle configurazioni.

   Tivoli Storage Productivity Center, invece, nella versione 5.1 offre una nuova interfaccia integrata
   Web-based, il supporto per la gestione basata su cloud dello storage, nonché del reporting e delle
   capacità analitiche basati su Cognos. A ciò si aggiunge la possibilità per le applicazioni di rilevare
   automaticamente e fare il provisioning dei file con dispositivi SONAS e Storwize V7000 Unified.

   Sono stati infine migliorati i sistemi storage DS3500 e DCS3700, per aziende piccole e medie che ne-
   cessitano di migliorare il tempo di backup e le prestazioni dello storage in caso di ripristino, cose che
   avvengono attraverso le tecnologie Enhanced FlashCopy e Adaptive Disk Pooling. Potenziato anche
   il supporto per ambienti server VMware in chiave di comunicazione fra gli host e gli array storage.


Per chi sta valutando o sperimentando il cloud           anche al di fuori dell’ambiente storage, in-
computing, la virtualizzazione nativa e una ge-          tegrandosi con le memorie dei server e con
stione policy-driven consentono di ottenere una          l’operatività delle applicazioni di business).
maggiore automazione nell’erogazione dei ser-
vizi, il monitoraggio e l’ottimizzazione dinamica        Lo storage recepisce
in tempo reale delle capacità. Discorso analogo          le policy aziendali
può essere fatto per le esigenze di integrazione         Le infrastrutture storage di nuova generazio-
fra Business Analytics e Big Data.                       ne hanno le stesse caratteristiche delle so-
                                                         luzioni IBM PureFlex System e SmartCloud,
La visione per una infrastruttura storage di nuo-        in grado cioè di fornire un’ottimizzazione
va generazione di IBM guarda però anche avan-            integrata end-to-end, mentre l’IBM Storage
ti, alle sfide che arriveranno nei prossimi anni,        Service Catalog stabilisce il legame fra i re-
per far sì che già oggi l’infrastruttura storage sia     quisiti-utente e le capacità dell’IT, aiutando
preparata ad accoglierle. L’efficienza, dunque,          ad accrescere i livelli di servizi e la soddisfa-
viene realizzata già nella progettazione, attra-         zione dei clienti, controllando anche i costi.
verso la presenza di caratteristiche avanzate e
preinstallate, utili per eliminare complessità e         I data center, infine, lavorano in base a spe-
barriere all’ingresso. La tecnologia Real-time           cifiche policy. Le performance applicative,
Compression, integrata nativamente nei sistemi           la schedulazione dei backup o i requisiti di
Storwize V7000, e SAN Volume Controller sono             conservazione dei dati sono personalizzati in
esempi indirizzati alla riduzione degli spazi.           base alle esigenze di ogni organizzazione. Una
                                                         volta definite, le policy dovrebbero essere fa-
Lo storage del futuro, poi, dovrà anche ottimiz-         cili da replicare e automatizzare. Lo storage
zarsi “da solo” in modo intelligente e automati-         presente e futuro deve quindi essere policy-
co, per allinearsi alla velocità del business, au-       driven, ad esempio per migrare file inattivi su
mentare il throughput delle applicazioni critiche        dispositivi di livello più basso o replicare i dati
e supportare nuovi carichi, come i desktop vir-          fra sistemi per velocizzare gli accessi. Tivoli
tuali, per fare un esempio. IBM integra tecnolo-         Storage Productivity Center e SAN Volume
gie di auto-ottimizzazione come XIV (automazio-          Controller lavorano insieme per implementa-
ne del load balancing e della qualità del servizio)      re una politica di “right tiering”, che fin qui era
e Easy Tier (che andrà a estendere il supporto           impossibile in un data center dinamico.




                                                                                                               11
LE MOSSE PER OTTENERE
     UNO STORAGE EFFICIENTE
     Partendo dal concetto più esteso di smarter computing, IBM invita a
     spostare il focus dalla pura memorizzazione dei dati alla capacità
     di allocarli nel posto più utile per il loro reperimento usando la
     virtualizzazione per migliorare la capacità di provisioning dei sistemi già
     presenti nell’infrastruttura aziendale.

     N    ell’It dei nostri giorni,
          niente appare più impor-
     tante del concetto di efficienza.
     Ci sono altre parole d’ordine
     ricorrenti, come riduzione dei
     costi, qualità del servizio, intel-
     ligenza. Oppure cloud compu-
     ting, virtualizzazione e conso-
     lidamento, se scendiamo sul
     terreno più pratico. Ma tutto
     discende dalla capacità di “fare
     le cose nel modo giusto” per ,
     parafrasare il guru del mana-
     gement Peter Drucker, ovvero
     avere una visione d’assieme
     delle infrastrutture da gestire e
     organizzarle in modo da soddi-
     sfare le richieste che vengono
     dal top management di un’a-
     zienda o dalle linee di business,     nell’invito a spostare il focus     disposizione fino al doppio ri-
     cercando il miglioramento con-        dalla semplice necessità di me-     spetto alla norma, ottenendo
     tinuo e non la semplice crescita      morizzare i dati alla capacità di   anche una riduzione del 38%
     incontrollata delle risorse.          allocarli nel posto più utile per   nella capacità fisica richiesta
                                           il loro reperimento e utilizzo,     e fino all’80% delle esigenze
     La trasformazione di questa           recuperando spazio con una          gestionali. Da questi valori, si
     visione in realtà passa per IBM       compressione che può avveni-        può facilmente comprendere
     attraverso il concetto di Smar-       re anche in tempo reale e uti-      come uno storage efficiente
     ter Computing, che non si ap-         lizzando la virtualizzazione per    generi vantaggio competitivo.
     plica solo allo storage, ma si        migliorare la capacità di utiliz-   L’obiettivo si può raggiungere
     estende ad altre aree-chiave          zo e provisioning dei sistemi       partendo dal disegno infra-
     dell’It, come l’elaborazione          già presenti nell’infrastruttura    strutturale, costruito su criteri
     delle informazioni, il software       aziendale.                          di ottimizzazione per singoli
     applicativo e le analisi. Rende-                                          carichi di lavoro e un TCO che
     re concreto questo concetto           In base ai valori medi ottenu-      possa far leva sull’automazio-
     implica la massima attenzione         ti da analisi di mercato e da       ne dei processi (tiering, provi-
     su aspetti come l’automazio-          studi condotti presso propri        sioning), sulla virtualizzazione,
     ne, l’integrazione e il cloud.        clienti, IBM ha potuto stimare      sull’erogazione dei servizi in
                                           che una maggiore efficienza         modalità cloud e su tecnologie
     La ricerca di efficienza in am-       nell’utilizzo dello storage con-    evolute per la compressione e
     bito storage si traduce per IBM       sente di sfruttare le risorse a     la deduplica dei dati.




12
Una      completa gamma di sistemi

Le soluzioni per lo storage efficiente proposte da IBM com-
binano la tecnologia di una gamma hardware completa
(che spazia dai sistemi entry-level a quelli high-end di fa-
scia enterprise) con specifiche funzionalità per la virtualiz-
zazione, il tiering automatico e il thin provisioning, fra le
altre cose.

L’offerta di sistemi midrange si sostanzia nelle famiglie
Storwize V7000 e DS di fascia più bassa. La prima rappre-
senta gli array di riferimento per il midmarket, con capacità
da 300 GB fino a 1.4 PB (configurazioni cluster) e perfor-
mance da 8 Gbps Fibre Channel e 1 Gbps iSCSI. L’evolu-
zione più recente riguarda la combinazione fra lo storage
di tipo NAS basato su file con quello di tipo SAN basato su
blocchi. Storwize V7000 Unified ottimizza l’utilizzo della ca-
pacità a disposizione e migliora il provisioning, aggiungen-
do la presenza di una singola interfaccia-utente per l’ammi-
nistrazione dei dispositivi. I pool storage, inoltre, possono
essere condivisi fra carichi di lavoro per blocchi e per file.

Sempre orientati al mercato intermedio, le gamme
DS3000 e DS5000 sono progettate per soddisfare le esi-
genze di sistemi aperti di oggi e di domani, stabilendo
un nuovo standard per la longevità del ciclo di vita, con
schede di interfaccia host sostituibili a caldo. L’architet-
tura hardware di settima generazione, inoltre, garantisce
alte prestazioni, scalabilità multidimensionale e protezio-
ne degli investimenti.

Le famiglie DS8000 e XIV sono invece rivolte al mercato di
fascia alta. I DS8000 beneficiano da poco dell’integrazione
con la più recente evoluzione di Easy Tier a tre livelli, che
consente di avere sempre e in automatico il miglior bilanciamento di flussi e prestazioni fra i disposi-
tivi SSD (più potenti ma anche onerosi), i moduli disco di fascia enterprise e quelli nearline (a costi più
bassi) anche nella versione con crittografia integrata. I requisiti prestazionali sono soddisfatti al minor
costo possibile sempre garantendo la qualità del servizio.

La serie IBM XIV indirizza le sfide connesse allo storage su tutto lo spettro applicativo, includendo le
soluzioni di virtualizzazione, database, analytics e protezione dei dati. L’architettura GRID a massiccio
parallelismo rende XIV la piattaforma ideale per il cloud computing e gli ambienti virtualizzati.

Fra i sistemi di file storage di IBM spicca la soluzione Scale Out Network Attached Storage (SONAS),
che virtualizza e consolida file multipli in un singolo file system enterprise-wide, riducendo così il Total
Cost of Ownership e i costi di capitale, aumentando l’efficienza operativa. Al di là della scalabilità in-
trinseca della piattaforma, di recente si è aggiunta l’integrazione di Active Cloud Engine, motore di file
management basato su policy che rende efficiente la condivisione e la collaborazione tanto su scala
locale (all’interno di un’azienda) che globale (su siti multipli). In ambito Nas, si aggiungono all’offerta
anche i prodotti modulari della serie N, mentre i virtual tape TS si indirizzano alle esigenze di protezio-
ne e conservazione dei dati a basso costo.




                                                                                                               13
La centralità del tiering            concetto nuovissimo, ma l’e-         necessario. Il motore, basato
     automatico                           voluzione verso l’automazione        su policy, è abbinato a un file
     Le soluzioni per l’efficienza        ne sta rapidamente allargando        system che consente di ge-
     dello storage messe a punto da       il potenziale. Tecnicamente, la      stire i dati in modo semplice
     IBM si possono raggruppare in        tecnologia consente di muove-        e scalabile. Con Active Cloud
     diverse categorie, tutte funzio-     re automaticamente differenti        Engine, la gestione risulta effi-
     nali al disegno complessivo. È       blocchi di dati attraverso i vari    ciente tanto a livello locale che
     importante, come abbiamo già         livelli dell’architettura, in base   globale. Nel primo caso, dato
     sottolineato, che i dati venga-      alle policy definite per ragioni     un posizionamento iniziale, lo
     no collocati sui dispostivi più      di business o di compliance e        spostamento avviene in modo
     adatti in ragione del loro utiliz-   studiate per ottenete la massi-      trasparente fra i pool interni ed
     zo e della loro criticità. Nell’i-   ma ottimizzazione del provisio-      esterni, mentre vengono impo-
     deale piramide utilizzabile          ning. IBM Easy Tier si occupa        stati automaticamente backup,
     come metafora dell’infrastrut-       proprio di queste funzionalità       restore e replica interna e/o
     tura storage di un’azienda,          in modo dinamico. Nata sui           remota. Nel secondo caso, si
     alla base troviamo le librerie       dispositivi di fascia enterpri-      ottiene una significativa ridu-
     di nastri (fisici o virtuali) che    se, la tecnologia è stata estesa     zione dei costi di rete, con la
     fungono da archivio per i dati       anche ai prodotti midrange. La       memorizzazione dei file in siti
     che necessitano di essere con-       possibilità di spostare auto-        remoti prima dell’effettiva rice-
     servati per lungo termine. Via       maticamente i dati da dischi         zione della richiesta (garanzia
     via che si sale, troveremo hard      di prestazione a dischi di ca-       di alta disponibilità e accesso
     disk drive di capacità e di pre-     pacità, in base alle esigenze        rapido), ma anche l’eliminazio-
     stazioni, flash disk o dischi allo   di business e ai volumi logici,      ne della replica dei file nei siti
     stato solido, nei quali collocare    consente di arrivare a triplicare    remoti.
     i dati di maggior peso e impor-      le prestazioni complessive pur
     tanza per l’azienda. Detto che       usando dischi allo stato solido      Sul lato dell’ottimizzazione del-
     IBM offre una gamma comple-          solo nel 2% del totale.              le capacità, un notevole passo
     ta di dispositivi hardware che                                            avanti è stato compiuto con la
     coprono ogni elemento della          Active Cloud Engine, invece,         disponibilità della tecnologia
     piramide (si veda box in que-        è un motore che costituisce la       Real Time Compression, che
     ste pagine), è nelle tecnologie      base dei sistemi di file stora-      consente di lavorare solo sui
     integrate che si possono trova-      ge SONAS (Scale-Out NAS) e           blocchi necessari, tipicamente
     re gli elementi differenziali in     consente agli utenti di gestire      sui dati di primaria importanza,
     termini di efficienza.               elevati numeri di file in modo       senza degrado di prestazioni. In
                                          efficiente, individuando rapi-       questo modo, si ottiene la pos-
     Il tiering dello storage, ad         damente i dati di interesse e        sibilità di ospitare una volume
     esempio, non è di per sé un          li rende disponibili laddove è       di dati fino a cinque volte supe-
                                                                               riore rispetto alle soluzioni tra-
                                                                               dizionali, guadagnando ulterio-
                                                                               re efficienza lungo il ciclo di vita
                                                                               dei dati. Agendo solo su quelli
                                                                               primari, anche tutte le succes-
                                                                               sive copie, backup, archiviazio-
                                                                               ni, snapshot e replica saranno
                                                                               compresse. L’operazione viene
                                                                               eseguita alla prima memoriz-
                                                                               zazione, rendendo possibile un
                                                                               minor invio di dati fisici ai siste-
                                                                               mi storage. Le appliance Real
                                                                               Time Compression si adattano
                                                                               a NAS non solo IBM (N Series),
                                                                               ma anche di altri produttori e
                                                                               può comprimere file e databa-
                                                                               se primari fino all’80%.




14
IBM PORTA L’HYPERVISOR
NEL MONDO
DELLO STORAGE
Combinando SAN Volume Controller con Tivoli Storage Productivity
Center, Big Blue propone una soluzione dedicata di virtualizzazione che
può integrare anche array di altri produttori. Così si pongono le basi
per l’evoluzione verso il cloud.
I n molte realtà, la virtualizzazione è un concetto
  che è stato inizialmente applicato soprattutto
alla componente dei server presenti nei sistemi
informativi. Molti dei benefici che se ne posso-
no ricavare – dal miglioramento dell’utilizzo delle
risorse alla flessibilità, dai tempi di risposta alla
mobilità dei carichi di lavoro fino al disaster reco-
very – possono tuttavia risultare limitati se solo
una parte dell’infrastruttura viene coinvolta nel
processo. Ecco perché la virtualizzazione dello
storage è una componente critica dell’evoluzione
dei sistemi informativi e costituisce anche uno
dei fondamenti per un’efficace implementazione
del cloud computing.
                                                        sempre SAN Volume Controller, mentre il “re-
Nell’ambito delle soluzioni proposte da IBM, SAN        gista” è IBM Tivoli Storage Productivity Center.
Volume Controller (SVC) rappresenta la tecnolo-         A questo, IBM aggiunge Tivoli Storage Flash
gia dedicata di maggior peso storico. Il prodotto,      Copy Manager, sottolineando come la capaci-
network-based, risiede in una SAN e si connette a       tà di snapshot integrata con le applicazioni di
sistemi eterogenei attraverso iSCSI o Fibre Chan-       business ed incorporata nel prodotto sia un in-
nel. Fino a otto nodi possono essere configurati        grediente essenziale dello storage hypervisor.
in cluster per ottenere scalabilità sull’ampiezza di
banda o sulla capacità. Ogni modulo SVC inclu-          Ottimizzazione con il thin provisioning
de la replica fra sistemi storage e il mirroring fra    In questo modo, è possibile creare un singolo
unità locali o remote. Inoltre, SVC utilizza un’in-     pool di dispositivi gestiti che possono essere
terfaccia grafica modellata su IBM XIV Storage          distribuiti su differenti array (anche di differenti
System, progettata per rendere facile l’utilizzo e      produttori). Lo storage virtualizzato (anche su
semplificare il provisioning.                           array singolo) funziona in modo diverso rispet-
                                                        to ai metodi tradizionali di condivisione in una
Lungo la strada tracciata, IBM è arrivata a pro-        SAN. Di solito, infatti, ogni applicazione viene
porre un concetto di hypervisor dello storage che       allocata in una porzione dello storage fisico
si allinea a quanto già disponibile nel mondo dei       disponibile, in base alle necessità specifiche.
server. Dietro quello che è stato battezzato Sto-       Questa modalità tende però a lasciare spazio
rage Hypervisor si cela una combinazione di sof-        libero inutilizzato. Il thin provisioning dello sto-
tware storage, che integra le necessarie funzioni       rage hypervisor, invece, mette a disposizione
di virtualizzazione dello storage e di software di      delle applicazioni spazio virtuale utilizzabile a
gestione, in modo da fornire il framework auto-         piacimento, fino al limite dello storage fisico di-
matico e centralizzato per tutte le risorse storage     sponibile. Inoltre, esso disaccoppia i servizi sto-
virtualizzate. Il prodotto che agisce praticamen-       rage (mirroring o replica, per esempio) dai sot-
te per rendere efficace questa combinazione è           tostanti media fisici. Queste funzionalità sono




                                                                                                               15
molto importanti per attività come la protezione           e differenti sistemi, come gli IBM XIV e DS8000,
     dei dati, il backup locale o il disaster recovery          ma anche array di altri produttori.
     remoto. In un ambiente gestito da hypervisor, i
     servizi storage accompagnano i dati e questi pos-          In prospettiva, il successo di un’evoluzione verso
     sono essere spostati virtualmente da un’istanza            il cloud storage si ottiene attraverso un processo
     fisica all’altra.                                          graduale, che inizia proprio con la disponibilità
                                                                di un’infrastruttura virtualizzata e resa efficiente.
     Dovrebbe essere ovvio che un amministra-                   Questi aspetti, combinati con la gestione auto-
     tore che utilizzi lo schema hypervisor per lo              matizzata, possono fornire un catalogo di servizi
     storage, debba dedicare il proprio tempo a com-            con capacità di self-provisioning, collaborazione
     piti a maggior valore aggiunto. IBM SVC abilita la         e abilitazione verso il concesso di pay-per-use.
     virtualizzazione, mentre Tivoli Storage Producti-          Una cloud privata di storage offre numerosi van-
     vity Center non solo automatizza la gestione dei           taggi agli utenti, a partire dall’erogazione più effi-
     cambiamenti, ma la rende possibile a un livello            cace dei servizi, con livelli più elevati e un miglior
     più granulare. Il processo di gestione fa sì che i         utilizzo degli asset. Gli ambienti storage virtua-
     dati vengano indirizzati su volumi virtuali attra-         lizzati e dotati di capacità avanzate di deduplica,
     verso multipli livelli di storage (dalle memorie           compressione e self-tuning sono meglio predi-
     flash SSD ai dispositivi FC/SAS fino a quelli SATA)        sposti per il passaggio alla cloud privata.




       Il   nastro compie            60     anni
       Mentre le imprese di tutto il mondo lottano con le incessanti ondate di dati che piombano nei loro data
       center, qualcuno potrebbe chiedersi come siamo arrivati a questo punto. E se da un lato vi è stato un
       gran numero di innovazioni nella storia dell’informatica, dall’altro è giusto dire che lo storage digita-
       le così come lo conosciamo oggi non esisterebbe se IBM non avesse creato il nastro nel maggio di
       sessant’anni fa. L’innovazione ha consentito agli enormi calcolatori di salvare i loro risultati in modo
       digitale su bobine di nastro magnetico, anziché su schede perforate o carta. Man mano che questi
       sistemi aumentavano le proprie prestazioni, le relative soluzioni di archiviazione non erano sostenibili.

       Per rispondere a questa esigenza IBM ricorse al nastro magnetico. La tecnologia, che veniva utilizzata
       per registrare l’audio, sembrava promettente per i massicci sistemi di calcolo, ma il nastro non era suf-
       ficientemente durevole. Quando si utilizzavano grandi bobine di nastro per acquisire i dati dei compu-
       ter, i potenti motori delle unità nastro, che si avviavano e si arrestavano bruscamente, ne provocavano
       facilmente la rottura.

       Gli ingegneri affrontarono questo problema in modo diretto. E il 21 maggio 1952, quando l’azienda
       rilasciò il suo primo computer di produzione, l’IBM 701, questo era accompagnato da un sistema di
       archiviazione che rappresentava una rivoluzione nel nastro magnetico. L’IBM 726 era un colosso da
       424 chilogrammi, poggiato sul pavimento, che risolveva il problema della rottura grazie all’uso di una
       “colonna sotto vuoto”, che creava un tampone di nastro libero tra gli avvii e gli arresti.

       L’innovazione della colonna sotto vuoto non fu solo un successo, ma venne adottata dalla maggior
       parte dei produttori di unità nastro ad alte prestazioni, facendone una delle tecnologie informatiche
       più impiegate del XX secolo.

       Le sfide del 2012 non sono certo quelle del 1952. Oggi dinamiche rivoluzionarie, come social media,
       mobile computing, Big Data e regolamentazione, si intrecciano e creano un ingorgo del traffico digitale
       di dimensioni epiche. Secondo alcuni, la quantità di informazioni che dovrà essere archiviata in modo
       digitale supererà gli 8 Zettabyte (ossia 8 miliardi di Terabyte) entro il 2015. Queste tendenze e previsioni
       costringono ogni settore a esaminare le proprie infrastrutture di storage con un’attenzione senza pre-
       precedenti. Ma il nastro resiste ancora e IBM continua a investirci.




16
LA SOLUZIONE DI SGM
PER GESTIRE I BIG DATA
Quello della grande                 gli interlocutori esterni; inno-
                                    vazione continua sia nelle tec-
                                                                         per selezionare i rivenditori più
                                                                         in sintonia con SGM e integrar-
distribuzione è uno                 nologie che nei processi con         li nella rete del gruppo; il nego-
dei mercati dove                    l’obiettivo di essere un punto       zio del futuro, con tecnologie e
il volume di dati                   di riferimento nel mercato, alla
                                    portata di tutti.
                                                                         layout all’avanguardia per es-
                                                                         sere sempre più in sintonia con
da elaborare e                                                           le esigenze e le aspettative del
analizzare in funzione              Il modello di business è in          cliente finale.
del business sta                    grado di cogliere veloce-
                                    mente le opportunità del             L’infrastruttura
aumentando con                      mercato e trasferirle in ma-         tecnologica e i vantaggi
maggior intensità.                  niera veloce ed efficiente           L’impianto ICT, si basa su siste-
Il più grande                       su tutti i canali di vendita.        mi hardware aperti e scalabili,
                                                                         due Power Systems e blade IBM.
associato al Gruppo                 Il risultato sono circa 14 milio-    Per far fronte al volume crescen-
Expert in Italia ha                 ni di articoli venduti ogni anno     te dei dati da gestire ed elaborare
rinnovato il sistema                e 38.000 ogni giorno: pratica-
                                    mente vengono acquistati 37
                                                                         oggi SGM ha scelto la piattafor-
                                                                         ma XIV proprio per le sue carat-
informativo puntando                elettrodomestici al minuto.          teristiche di scalabilità dinamica,
su scalabilità e                                                         auto riparazione in caso di gua-
                                    L’esigenza
azzeramento dei                     Oggi SGM vuole essere un’a-
                                                                         sto tecnico e grandi prestazioni
                                                                         ottimali, tutti requisiti che riduco-
fermi macchina                      zienda multicanale totalmen-         no la complessità gestionale tipi-
                                    te integrata: non deve esser-        camente correlata agli ambienti

S    GM è per dimensioni e fat-
     turato il più grande asso-
ciato al Gruppo Expert in Italia
                                    ci separazione tra il negozio
                                    ed il web, tra clienti della di-
                                    stribuzione e clienti del det-
                                                                         a rapida crescita. L’architettura è
                                                                         anche concepita per ottimizzare
                                                                         in maniera automatica l’utilizzo
ed opera nel mercato dell’e-        taglio che, magari, hanno            delle risorse di tutti i componenti
lettronica di consumo con il        solo un contatto attraverso il       all’interno del sistema, permet-
marchio “MarcoPolo Expert”      .   call center.                         tendo così una semplificazione
Lo confermano alcuni numeri                                              delle attività di gestione e con-
chiave: 68 megastore di pro-        Per raggiungere questo obiet-        figurazione nonché un conside-
prietà, 5 negozi in franchising,    tivo SGM ha avviato una serie        revole miglioramento delle pre-
700 clienti distributori, oltre 2   di progetti che puntano es-          stazioni e della disponibilità di
milioni di carte fedeltà, 1.700     senzialmente su cinque fattori       informazioni.
dipendenti.                         chiave: un’efficace comunica-
                                    zione interna, semplice e bi-        L’architettura software è af-
I valori dell’azienda sono ri-      direzionale; un nuovo format         facciata sul DB2 e le soluzioni
masti invariati nel tempo e ne      commerciale; la logistica, che       WebSphere in ambito Web e
hanno guidato l’evoluzione          mette a disposizione di tutti i      middleware aiutano la pubbli-
e la crescita: attenzione alla      punti di vendita un magazzino        cazione e l’integrazione dei dati.
persona, qualunque sia il suo       virtuale che è la somma del          La soluzione IBM DataStage ha
ruolo (cliente, dipendente o        magazzino centrale di Forlì e di     trovato un’ottima collaborazio-
fornitore); centralità del clien-   tutti i prodotti disponibili pres-   ne con la sottostante piattafor-
te; meritocrazia sia all’interno    so i punti vendita; un progetto      ma XIV che ne aiuta la velocità
dell’organizzazione sia verso       di espansione in franchising         di spostamento del dato.




                                                                                                                 17
In SGM il sistema informati-         ter contare su un’infrastruttura   guentemente lo deve essere
     vo riveste un ruolo strategi-        tecnologica in grado di evolve-    anche per chi, operando sulle
     co, per rispondere in maniera        re in maniera dinamica rispetto    tecnologie, ne deve fornire la
     puntuale alla domanda della          alle esigenze del business, che    soluzione tecnica in tempi ra-
     clientela e per anticiparne le       consentisse di accedere velo-      pidi.
     esigenze. L’azienda si trova a       cemente ai dati a seconda delle
     dover gestire grandi quanti-         necessità di ogni specifico mo-    La piattaforma XIV è stata la ri-
     tà di dati rilevanti e continua-     mento.                             sposta completa alle richieste
     mente freschi provenienti da                                            di SGM in ambito storage. Non
     canali distributivi diversi, senza   Un’implementazione                 solo. L’installazione e la mes-
     poter dedicare tempo alle ma-        rapida ed efficiente               sa in produzione del nuovo
     nutenzioni e agli spostamenti.       Se la tecnologia deve essere       sistema sono state realizzate
     La decisione, inevitabile, di rin-   un abilitatore del business, è     in tempi estremamente brevi,
     novare le architetture esistenti     necessario che sia utilizzabile    con un impiego ridotto di ri-
     ha fatto perno sull’esigenza pri-    facilmente e deve consentire       sorse umane, senza alcun im-
     maria della scalabilità, ma an-      rapidamente l’analisi del dato     patto sulle attività del gruppo,
     che sulla possibilità di azzerare    e dell’informazione. La sem-       facendo sì che un importante
     i fermi macchina e consentire        plicità d’uso deve essere vista    cambio di tecnologia fosse re-
     rapide rivisitazioni d’uso. In so-   prioritariamente orientata al      alizzata con un’azione traspa-
     stanza, l’IT di SGM doveva po-       utente del sistema ma conse-       rente all’utente finale.




18
CONSOLIDAMENTO
E SICUREZZA IN CASA
TREVALLI COOPERLAT
T   revalli Cooperlat è nata nel 1982 su iniziati-
    va della Confcooperative Marche tra nove
cooperative agricole e ha seguito negli anni un
                                                        Dal punto di vista dello storage, ora un unico
                                                        sistema IBM Storwize V7000 contiene sia i vo-
                                                        lumi open che i volumi iSeries con disponibilità
percorso di crescita continua fatto di nuove ac-        di 32,5 Tb su dischi SAS 2 e 2,7 Tb su SSD con
quisizioni, tanto da diventare oggi una grande          attiva funzionalità Easy Tier. IBM SAN Volume
realtà agroalimentare che raggruppa undici coo-         Controller (SVC) si occupa della virtualizzazione
perative agricole e opera in nove regioni italiane.     dello storage, integrando le funzionalità di thin
Ne fanno parte oltre mille allevatori, mentre il fat-   provisioning e flash copy, la prima per avere la
turato supera i 220 milioni di euro.                    possibilità di assegnare anche grandi volumi a
                                                        macchine di test andando oltre le capacità reali
All’IT di Trevalli Cooperlat viene richiesto in         assegnate e la seconda per una nuova politica di
generale un servizio che possa gestire veloce-          backup, che permetta di minimizzare l’indispo-
mente i cambiamenti strutturali e logistici che         nibilità dei sistemi per queste funzioni.
l’azienda persegue per il proprio business in ter-
mini di accorpamenti, acquisizioni, dislocazioni,       La revisione delle politiche di backup sfrutta le
razionalizzazioni. Occorre, inoltre, far fronte alla    potenzialità di IBM Tivoli Storage Manager per
crescente informatizzazione dei reparti produtti-       poter gestire direttamente gli snapshot dell’am-
vi con sistemi sicuri e sempre accessibili, gover-      biente VMware per il mondo open. e la flashcopy
nare i costi di gestione del data center, avere a       di SAN Volume Controller per il mondo iSeries.
disposizione strumenti per la tutela dell’integrità     L’infrastruttura di backup ha uno storage pool a
delle informazioni, per la continua disponibilità       disco di 20Tb su un sistema IBM DS3500, 2 tape
delle informazioni per le strutture autorizzate e       IBM TS3200 rispettivamente uno per il mondo
per la costante valutazione delle possibili debo-       open con 4 drive e l’altro per i sistemi iseries con
lezze del sistema informativo aziendale.                2 drive, connessione in fibra 4GB con un lama
                                                        IBM HS22 che funge da server Tivoli.
Questi sono gli elementi che hanno convinto il
management di Trevalli Cooperlat a ristruttura-         Il nuovo data center ha portato a significativi ri-
re la propria infrastruttura informatica, in modo       sparmi energetici, con una riduzione dei consu-
tale da renderla flessibile e pronta a rispondere       mi di circa il 33%.
velocemente ai cambiamenti, aperta alle nuove
tecnologie e scalabile velocemente in termini di
processore, memoria e disco e performance.

Dopo un iniziale assessment infrastrutturale af-
fidato a IBM, la soluzione progettuale scelta da
Trevalli Cooperlat, fornita e realizzata con il sup-
porto del business partner EUROLAB, prevede
l’utilizzo di soluzioni tecnologiche innovative,
che spaziano dal consolidamento di tutti i ses-
santa server fisici Windows/Linux in ambiente
VMware su un IBM BladeCenter H con 2 lame
HX5 a quello dei tre sistemi iSeries per SAP at-
traverso l’inserimento, nello stesso BladeCenter
H, di una lama POWER7 PS702 a 6 core.




                                                                                                               19
Se desiderate maggiori informazioni
                                                                                                                                                  o approfondimenti,
                                                                                                                                   visitate i seguenti indirizzi:

                                                                                                                 www.ibm.com/systems/it/storage/
                                                                                                   http://www.ibm.com/systems/storage/index.html

                                 IBM e il logo IBM, sono marchi registrati di International Business Machines Corporation in diversi Paesi del mondo. La lista aggiornata dei
                                     marchi registrati di IBM è disponibile sul sito www.ibm.com/legal/copytrade.shtml, alla voce “Copyright and trademark information”.

                                     Intel, il logo Intel, Intel Inside e Intel Xeon sono marchi registrati di Intel Corporation o delle sue filiali negli Stati Uniti e/o in altri Paesi.
                                                                                                Linux è un marchio registrato di Linus Torvalds negli Stati Uniti e/o in altri Paesi.
                                                                                            Altre denominazioni ivi citate possono essere marchi registrati dei rispettivi titolari.

                                                         Questa pubblicazione è fornita solo a titolo informativo. Le informazioni sono soggette a modifiche senza preavviso.
                                                                          Per le informazioni più aggiornate sui prodotti e sui servizi IBM visitate la home page di IBM Italia.

                                                                                                                          © Copyright IBM Corporation 2012. Tutti i diritti riservati.




     Efficienza e ottimizzazione diventano native nello storage IBM. La fornitura editoriale di IBM è indipendente dall’analisi di Gartner. Tutta la ricerca Gartner
     è protetta da © 2012 di Gartner, Inc. Tutti i diritti riservati. Tutto il materiale Gartner è utilizzato con il consenso di Gartner. L’uso o la pubblicazione della
     ricerca Gartner non indica l’approvazione da parte di Gartner dei prodotti e/o delle strategie di IBM. La riproduzione o la distribuzione di questa pubbli-
     cazione in qualsiasi forma, senza previo consenso scritto, è vietata. Le informazioni contenute in questo documento sono state ottenute da fonti ritenute
     attendibili. Gartner non fornisce alcuna garanzia sull’accuratezza, la completezza o l’adeguatezza di tali informazioni. Gartner declina ogni responsabilità
     in caso di errori, omissioni o inadeguatezza delle informazioni qui contenute o delle relative interpretazioni. Le opinioni qui espresse sono soggette a
     modifiche senza preavviso. Sebbene la ricerca Gartner possa prendere in esame aspetti legali correlati, Gartner non fornisce consulenza o servizi di natura
     legale e la sua ricerca non deve essere interpretata come tale. Gartner è una società pubblica e tra i suoi azionisti possono figurare aziende e finanziatori
     con interessi economici nelle entità di cui si occupa la ricerca Gartner. Del consiglio di amministrazione Gartner possono far parte alcuni senior manager
     di queste aziende o di questi fondi. La ricerca realizzata da Gartner è indipendente dall’organizzazione di ricerca e non subisce influenze né pressioni da
     parte delle aziende, dei finanziatori o dei loro responsabili. Per ulteriori informazioni sull’indipendenza e l’integrità della ricerca Gartner, consultare “Gui-
     ding Principles on Independence and Objectivity” (Principi guida di indipendenza e obiettività) sul sito Web http://www.gartner.com/technology/about/
     ombudsman/omb_guide2.jsp.




20

Mais conteúdo relacionado

Mais procurados

Data Strategy per trasformare i dati in asset strategici aziendali
Data Strategy per trasformare i dati in asset strategici aziendaliData Strategy per trasformare i dati in asset strategici aziendali
Data Strategy per trasformare i dati in asset strategici aziendaliDenodo
 
Centro Computer Spa - Gruppo Project - Presentazione Azienda - Digital Transf...
Centro Computer Spa - Gruppo Project - Presentazione Azienda - Digital Transf...Centro Computer Spa - Gruppo Project - Presentazione Azienda - Digital Transf...
Centro Computer Spa - Gruppo Project - Presentazione Azienda - Digital Transf...Centro Computer Spa
 
Il data warehouse nella business intelligence
Il data warehouse nella business intelligenceIl data warehouse nella business intelligence
Il data warehouse nella business intelligenceAndrea Mecchia
 
Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...
Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...
Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...AmmLibera AL
 
Big Data per Madee 7 at Digital Accademia
Big Data per Madee 7 at Digital AccademiaBig Data per Madee 7 at Digital Accademia
Big Data per Madee 7 at Digital AccademiaGianluigi Cogo
 
Technology 4 Business - L'IT a supporto del business
Technology 4 Business - L'IT a supporto del businessTechnology 4 Business - L'IT a supporto del business
Technology 4 Business - L'IT a supporto del businessDedagroup
 
Business intelligence v0.3
Business intelligence v0.3Business intelligence v0.3
Business intelligence v0.3Luca Mauri
 
Presentazione bigdata Madee
Presentazione bigdata MadeePresentazione bigdata Madee
Presentazione bigdata MadeeGianluigi Cogo
 
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
 

Mais procurados (11)

Data Strategy per trasformare i dati in asset strategici aziendali
Data Strategy per trasformare i dati in asset strategici aziendaliData Strategy per trasformare i dati in asset strategici aziendali
Data Strategy per trasformare i dati in asset strategici aziendali
 
Centro Computer Spa - Gruppo Project - Presentazione Azienda - Digital Transf...
Centro Computer Spa - Gruppo Project - Presentazione Azienda - Digital Transf...Centro Computer Spa - Gruppo Project - Presentazione Azienda - Digital Transf...
Centro Computer Spa - Gruppo Project - Presentazione Azienda - Digital Transf...
 
ICT
ICTICT
ICT
 
Il data warehouse nella business intelligence
Il data warehouse nella business intelligenceIl data warehouse nella business intelligence
Il data warehouse nella business intelligence
 
Bigdata per Madee 4
Bigdata per Madee 4Bigdata per Madee 4
Bigdata per Madee 4
 
Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...
Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...
Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...
 
Big Data per Madee 7 at Digital Accademia
Big Data per Madee 7 at Digital AccademiaBig Data per Madee 7 at Digital Accademia
Big Data per Madee 7 at Digital Accademia
 
Technology 4 Business - L'IT a supporto del business
Technology 4 Business - L'IT a supporto del businessTechnology 4 Business - L'IT a supporto del business
Technology 4 Business - L'IT a supporto del business
 
Business intelligence v0.3
Business intelligence v0.3Business intelligence v0.3
Business intelligence v0.3
 
Presentazione bigdata Madee
Presentazione bigdata MadeePresentazione bigdata Madee
Presentazione bigdata Madee
 
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
 

Destaque (8)

Cognos10 business insight
Cognos10 business insightCognos10 business insight
Cognos10 business insight
 
Ibm blade center h
Ibm blade center hIbm blade center h
Ibm blade center h
 
IBM Storwize V5000
IBM Storwize V5000IBM Storwize V5000
IBM Storwize V5000
 
Pure flex
Pure flexPure flex
Pure flex
 
Ibm blade center
Ibm blade centerIbm blade center
Ibm blade center
 
Italiano storwize v7000
Italiano storwize v7000Italiano storwize v7000
Italiano storwize v7000
 
Flex system v7000 storage node
Flex system v7000 storage nodeFlex system v7000 storage node
Flex system v7000 storage node
 
Lenovo Thinkpad_x250
Lenovo Thinkpad_x250Lenovo Thinkpad_x250
Lenovo Thinkpad_x250
 

Semelhante a Gartner

I Software passano, i Dati restano.pdf
I Software passano, i Dati restano.pdfI Software passano, i Dati restano.pdf
I Software passano, i Dati restano.pdfAndrea Gioia
 
DATA & DRINKS: Data Management Trends.pdf
DATA & DRINKS: Data Management Trends.pdfDATA & DRINKS: Data Management Trends.pdf
DATA & DRINKS: Data Management Trends.pdfAndrea Gioia
 
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...Denodo
 
The Logical Data Fabric: un posto unico per la data integration (Italian)
The Logical Data Fabric: un posto unico per la data integration (Italian)The Logical Data Fabric: un posto unico per la data integration (Italian)
The Logical Data Fabric: un posto unico per la data integration (Italian)Denodo
 
TBIZ 2012- Dell: La spending review nel data center (2)
TBIZ 2012- Dell: La spending review nel data center (2)TBIZ 2012- Dell: La spending review nel data center (2)
TBIZ 2012- Dell: La spending review nel data center (2)TechnologyBIZ
 
Workshop Smau Milano 2016 (BMAN)
Workshop Smau Milano 2016 (BMAN)Workshop Smau Milano 2016 (BMAN)
Workshop Smau Milano 2016 (BMAN)Sascia Morelli
 
La nuova generazione dei gestionali cloud
La nuova generazione dei gestionali cloudLa nuova generazione dei gestionali cloud
La nuova generazione dei gestionali cloudRoberta Fiorucci
 
PEC CORPORATE 2015 - Maximiliano Bruno
PEC CORPORATE 2015 - Maximiliano Bruno PEC CORPORATE 2015 - Maximiliano Bruno
PEC CORPORATE 2015 - Maximiliano Bruno i-Faber S.p.A.
 
Smau Milano 2016 - Sascia Morelli
Smau Milano 2016 - Sascia MorelliSmau Milano 2016 - Sascia Morelli
Smau Milano 2016 - Sascia MorelliSMAU
 
Architettura giusta di_bi_it
Architettura giusta di_bi_itArchitettura giusta di_bi_it
Architettura giusta di_bi_itPRAGMA PROGETTI
 
151117_AziendaBanca_Big-Data
151117_AziendaBanca_Big-Data151117_AziendaBanca_Big-Data
151117_AziendaBanca_Big-DataNilo Calvi
 
E Caudera Strategic Downturn
E Caudera Strategic DownturnE Caudera Strategic Downturn
E Caudera Strategic DownturnEzio Caudera
 
Cybersecurity in Ecosistemi ibridi ed iperconvergenti. Opportunità, rischi e ...
Cybersecurity in Ecosistemi ibridi ed iperconvergenti. Opportunità, rischi e ...Cybersecurity in Ecosistemi ibridi ed iperconvergenti. Opportunità, rischi e ...
Cybersecurity in Ecosistemi ibridi ed iperconvergenti. Opportunità, rischi e ...Data Driven Innovation
 
Strategie d'Integrazione dei dati per un mondo ibrido e multicloud
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudStrategie d'Integrazione dei dati per un mondo ibrido e multicloud
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudDenodo
 
Open source and new architectures
Open source and new architecturesOpen source and new architectures
Open source and new architecturesSergio Patano
 
Cloud computing, cosa cambia per l'IT?
Cloud computing, cosa cambia per l'IT?Cloud computing, cosa cambia per l'IT?
Cloud computing, cosa cambia per l'IT?Gianluigi Cogo
 
Energy Business Intelligence: caso di studio al Politecnico di Torino
Energy Business Intelligence: caso di studio al Politecnico di TorinoEnergy Business Intelligence: caso di studio al Politecnico di Torino
Energy Business Intelligence: caso di studio al Politecnico di Torinomatteo paracchino
 

Semelhante a Gartner (20)

I Software passano, i Dati restano.pdf
I Software passano, i Dati restano.pdfI Software passano, i Dati restano.pdf
I Software passano, i Dati restano.pdf
 
DATA & DRINKS: Data Management Trends.pdf
DATA & DRINKS: Data Management Trends.pdfDATA & DRINKS: Data Management Trends.pdf
DATA & DRINKS: Data Management Trends.pdf
 
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
 
Ibm smarter storage
Ibm smarter storageIbm smarter storage
Ibm smarter storage
 
The Logical Data Fabric: un posto unico per la data integration (Italian)
The Logical Data Fabric: un posto unico per la data integration (Italian)The Logical Data Fabric: un posto unico per la data integration (Italian)
The Logical Data Fabric: un posto unico per la data integration (Italian)
 
TBIZ 2012- Dell: La spending review nel data center (2)
TBIZ 2012- Dell: La spending review nel data center (2)TBIZ 2012- Dell: La spending review nel data center (2)
TBIZ 2012- Dell: La spending review nel data center (2)
 
Workshop Smau Milano 2016 (BMAN)
Workshop Smau Milano 2016 (BMAN)Workshop Smau Milano 2016 (BMAN)
Workshop Smau Milano 2016 (BMAN)
 
La nuova generazione dei gestionali cloud
La nuova generazione dei gestionali cloudLa nuova generazione dei gestionali cloud
La nuova generazione dei gestionali cloud
 
PEC CORPORATE 2015 - Maximiliano Bruno
PEC CORPORATE 2015 - Maximiliano Bruno PEC CORPORATE 2015 - Maximiliano Bruno
PEC CORPORATE 2015 - Maximiliano Bruno
 
Smau Milano 2016 - Sascia Morelli
Smau Milano 2016 - Sascia MorelliSmau Milano 2016 - Sascia Morelli
Smau Milano 2016 - Sascia Morelli
 
Architettura giusta di_bi_it
Architettura giusta di_bi_itArchitettura giusta di_bi_it
Architettura giusta di_bi_it
 
151117_AziendaBanca_Big-Data
151117_AziendaBanca_Big-Data151117_AziendaBanca_Big-Data
151117_AziendaBanca_Big-Data
 
E Caudera Strategic Downturn
E Caudera Strategic DownturnE Caudera Strategic Downturn
E Caudera Strategic Downturn
 
Cybersecurity in Ecosistemi ibridi ed iperconvergenti. Opportunità, rischi e ...
Cybersecurity in Ecosistemi ibridi ed iperconvergenti. Opportunità, rischi e ...Cybersecurity in Ecosistemi ibridi ed iperconvergenti. Opportunità, rischi e ...
Cybersecurity in Ecosistemi ibridi ed iperconvergenti. Opportunità, rischi e ...
 
Strategie d'Integrazione dei dati per un mondo ibrido e multicloud
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudStrategie d'Integrazione dei dati per un mondo ibrido e multicloud
Strategie d'Integrazione dei dati per un mondo ibrido e multicloud
 
Open source and new architectures
Open source and new architecturesOpen source and new architectures
Open source and new architectures
 
Gen9 - Domande frequenti
Gen9 - Domande frequentiGen9 - Domande frequenti
Gen9 - Domande frequenti
 
Cloud computing, cosa cambia per l'IT?
Cloud computing, cosa cambia per l'IT?Cloud computing, cosa cambia per l'IT?
Cloud computing, cosa cambia per l'IT?
 
Energy Business Intelligence: caso di studio al Politecnico di Torino
Energy Business Intelligence: caso di studio al Politecnico di TorinoEnergy Business Intelligence: caso di studio al Politecnico di Torino
Energy Business Intelligence: caso di studio al Politecnico di Torino
 
Data Governance at work
Data Governance at workData Governance at work
Data Governance at work
 

Mais de PRAGMA PROGETTI

Sessione di aggiornamento Panthera ERP 9 maggio 2017
Sessione di aggiornamento Panthera ERP  9 maggio 2017Sessione di aggiornamento Panthera ERP  9 maggio 2017
Sessione di aggiornamento Panthera ERP 9 maggio 2017PRAGMA PROGETTI
 
Presentazione Lenovo evento 9 febbraio
Presentazione Lenovo evento 9 febbraioPresentazione Lenovo evento 9 febbraio
Presentazione Lenovo evento 9 febbraioPRAGMA PROGETTI
 
Presentazione Corso VMware vSphere 6.5
Presentazione Corso VMware vSphere 6.5Presentazione Corso VMware vSphere 6.5
Presentazione Corso VMware vSphere 6.5PRAGMA PROGETTI
 
Windows Server 2016 licensing datasheet
Windows Server 2016 licensing datasheetWindows Server 2016 licensing datasheet
Windows Server 2016 licensing datasheetPRAGMA PROGETTI
 
Perchè scegliere Windows Server 2016
Perchè scegliere Windows Server 2016Perchè scegliere Windows Server 2016
Perchè scegliere Windows Server 2016PRAGMA PROGETTI
 
Evento 15 novembre microsoft
Evento 15 novembre microsoftEvento 15 novembre microsoft
Evento 15 novembre microsoftPRAGMA PROGETTI
 
Linux on power best practices
Linux on power best practicesLinux on power best practices
Linux on power best practicesPRAGMA PROGETTI
 
Acg enterprise tech 2016-09_28
Acg enterprise   tech 2016-09_28Acg enterprise   tech 2016-09_28
Acg enterprise tech 2016-09_28PRAGMA PROGETTI
 
Presentazione IBM i virtualizzazione su Power System
Presentazione IBM i virtualizzazione su Power SystemPresentazione IBM i virtualizzazione su Power System
Presentazione IBM i virtualizzazione su Power SystemPRAGMA PROGETTI
 
brochure acg enterprise short
brochure acg enterprise shortbrochure acg enterprise short
brochure acg enterprise shortPRAGMA PROGETTI
 

Mais de PRAGMA PROGETTI (20)

Sessione di aggiornamento Panthera ERP 9 maggio 2017
Sessione di aggiornamento Panthera ERP  9 maggio 2017Sessione di aggiornamento Panthera ERP  9 maggio 2017
Sessione di aggiornamento Panthera ERP 9 maggio 2017
 
Presentazione AGYO
Presentazione AGYOPresentazione AGYO
Presentazione AGYO
 
Presentazione Lenovo evento 9 febbraio
Presentazione Lenovo evento 9 febbraioPresentazione Lenovo evento 9 febbraio
Presentazione Lenovo evento 9 febbraio
 
Presentazione Corso VMware vSphere 6.5
Presentazione Corso VMware vSphere 6.5Presentazione Corso VMware vSphere 6.5
Presentazione Corso VMware vSphere 6.5
 
Windows Server 2016 licensing datasheet
Windows Server 2016 licensing datasheetWindows Server 2016 licensing datasheet
Windows Server 2016 licensing datasheet
 
Perchè scegliere Windows Server 2016
Perchè scegliere Windows Server 2016Perchè scegliere Windows Server 2016
Perchè scegliere Windows Server 2016
 
Evento 15 novembre microsoft
Evento 15 novembre microsoftEvento 15 novembre microsoft
Evento 15 novembre microsoft
 
Linux on power best practices
Linux on power best practicesLinux on power best practices
Linux on power best practices
 
Acg enterprise tech 2016-09_28
Acg enterprise   tech 2016-09_28Acg enterprise   tech 2016-09_28
Acg enterprise tech 2016-09_28
 
Presentazione IBM i virtualizzazione su Power System
Presentazione IBM i virtualizzazione su Power SystemPresentazione IBM i virtualizzazione su Power System
Presentazione IBM i virtualizzazione su Power System
 
Ha solutions su power i
Ha solutions su power iHa solutions su power i
Ha solutions su power i
 
Microsoft Azure
Microsoft AzureMicrosoft Azure
Microsoft Azure
 
Microsoft Intune
Microsoft IntuneMicrosoft Intune
Microsoft Intune
 
Presentazione office 2016
Presentazione office 2016Presentazione office 2016
Presentazione office 2016
 
Presentazione office 365
Presentazione office 365Presentazione office 365
Presentazione office 365
 
Microsoft Surface
Microsoft SurfaceMicrosoft Surface
Microsoft Surface
 
acg enterprise_tech
acg enterprise_techacg enterprise_tech
acg enterprise_tech
 
Power system s814
Power system s814Power system s814
Power system s814
 
Power system
Power systemPower system
Power system
 
brochure acg enterprise short
brochure acg enterprise shortbrochure acg enterprise short
brochure acg enterprise short
 

Último

ScrapeGraphAI: a new way to scrape context with AI
ScrapeGraphAI: a new way to scrape context with AIScrapeGraphAI: a new way to scrape context with AI
ScrapeGraphAI: a new way to scrape context with AIinfogdgmi
 
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”Associazione Digital Days
 
Gabriele Mittica, CEO @Corley Cloud – “Come creare un’azienda “nativa in clou...
Gabriele Mittica, CEO @Corley Cloud – “Come creare un’azienda “nativa in clou...Gabriele Mittica, CEO @Corley Cloud – “Come creare un’azienda “nativa in clou...
Gabriele Mittica, CEO @Corley Cloud – “Come creare un’azienda “nativa in clou...Associazione Digital Days
 
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...Associazione Digital Days
 
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...Associazione Digital Days
 
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...Associazione Digital Days
 
Alessandro Nasi, COO @Djungle Studio – “Cosa delegheresti alla copia di te st...
Alessandro Nasi, COO @Djungle Studio – “Cosa delegheresti alla copia di te st...Alessandro Nasi, COO @Djungle Studio – “Cosa delegheresti alla copia di te st...
Alessandro Nasi, COO @Djungle Studio – “Cosa delegheresti alla copia di te st...Associazione Digital Days
 
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...Associazione Digital Days
 
Mael Chiabrera, Software Developer; Viola Bongini, Digital Experience Designe...
Mael Chiabrera, Software Developer; Viola Bongini, Digital Experience Designe...Mael Chiabrera, Software Developer; Viola Bongini, Digital Experience Designe...
Mael Chiabrera, Software Developer; Viola Bongini, Digital Experience Designe...Associazione Digital Days
 

Último (9)

ScrapeGraphAI: a new way to scrape context with AI
ScrapeGraphAI: a new way to scrape context with AIScrapeGraphAI: a new way to scrape context with AI
ScrapeGraphAI: a new way to scrape context with AI
 
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
 
Gabriele Mittica, CEO @Corley Cloud – “Come creare un’azienda “nativa in clou...
Gabriele Mittica, CEO @Corley Cloud – “Come creare un’azienda “nativa in clou...Gabriele Mittica, CEO @Corley Cloud – “Come creare un’azienda “nativa in clou...
Gabriele Mittica, CEO @Corley Cloud – “Come creare un’azienda “nativa in clou...
 
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
 
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
 
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
 
Alessandro Nasi, COO @Djungle Studio – “Cosa delegheresti alla copia di te st...
Alessandro Nasi, COO @Djungle Studio – “Cosa delegheresti alla copia di te st...Alessandro Nasi, COO @Djungle Studio – “Cosa delegheresti alla copia di te st...
Alessandro Nasi, COO @Djungle Studio – “Cosa delegheresti alla copia di te st...
 
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
 
Mael Chiabrera, Software Developer; Viola Bongini, Digital Experience Designe...
Mael Chiabrera, Software Developer; Viola Bongini, Digital Experience Designe...Mael Chiabrera, Software Developer; Viola Bongini, Digital Experience Designe...
Mael Chiabrera, Software Developer; Viola Bongini, Digital Experience Designe...
 

Gartner

  • 1. EFFICIENZA E OTTIMIZZAZIONE DIVENTANO NATIVE NELLO STORAGE IBM Featuring research from
  • 2. NELL’EFFICIENZA LA CHIAVE PER GESTIRE I DATI Crescono di pari passo le fonti e la quantità di informazioni da analizzare e avere a disposizione. Di converso, stagnano o si riducono i budget a disposizione dell’IT. La quadratura del cerchio si trova nell’adozione di uno storage capace di rendere disponibile ciò che serve in modo autonomo e dinamico. P er chi si occupa di storage, la sfida di questo periodo congiunturale appare legata soprat- tutto alla necessità di gestire e archiviare quanti- tà crescenti di dati ma allo stesso tempo, erogare servizi su standard qualitativi più elevati e tenere i costi sotto controllo. Il punto di partenza di ogni riflessione rimanda inevitabilmente al concetto di Big Data, ovvero alla moltiplicazione senza sosta di dati da elabo- rare, che arrivano dalle fonti più disparate. IBM stima che il 90% dei dati oggi in circolazione sia- no stati creati solo negli ultimi due anni. Mentre le fonti di divulgazione e circolazione resto su sistemi più economici. Più questi pro- delle informazioni continuano ad aumentare, il cessi vengono automatizzati e maggiore è l’effi- budget per l’IT in generale e lo storage di conse- cienza che si ottiene. Per non continuare ad ag- guenza non seguono certo lo stesso andamento. giungere capacità, inoltre, appare opportuno far leva sulla virtualizzazione e il cloud, ma anche Inevitabilmente, dunque, il modo per far fronte su tecnologie di compressione, deduplica, thin alle necessità del periodo passa per la ricerca provisioning e thin replication. di efficienza nell’infrastruttura. D’altra parte, le stime dicono che ancora oggi l’utilizzo della I recentissimi annunci, che puntano a realizzare capacità a disposizione si trova mediamente al una infrastruttura storage di nuova generazione, di sotto del 50%, soprattutto a causa dell’imple- integrano tutti questi aspetti, confermando il mentazione, sedimentata negli anni, di soluzioni concetto di disponibilità “by design” che già poco flessibili. contraddistingue la gamma di server PureSy- stems. La possibilità di preservare gli investi- Nella visione olistica di IBM, l’efficienza dello menti già effettuati, facendoli però convogliare storage si realizza assommando diversi elemen- in una logica votata alla ricerca costante dell’ef- ti. I dati devono trovarsi nel posto più indicato ficienza, in combinazione con la presenza nativa rispetto al loro livello di criticità o consultazio- di elementi di automazione e virtualizzazione, ne. Sui dispositivi ad alte prestazioni, certamen- consente alle aziende di essere già pronte ad af- te più costosi, è opportuno far risiedere solo ciò frontare anche le sfide che il mercato proporrà che riveste maggiore importanza, spostando il negli anni a venire. 2
  • 3. Dagli archivi Gartner: INFRASTRUTTURA INFORMATIVA E BIG DATA PANORAMICA SULLE PRINCIPALI INIZIATIVE Il concetto di infrastruttura informativa deve evolversi per consentire alle imprese di gestire le informazioni in quanto prezioso asset aziendale, alla luce dei nuovi modelli di distribuzione dei dati e delle sfide imposte dalla crescita esplosiva di questi ultimi. Il presente documento descrive i passi critici e gli ostacoli da affrontare per superare questa sfida. ANALISI mail, documenti, audio e video. Per adottare un L’infrastruttura informativa è costituita da un in- approccio strategico alla gestione delle informa- sieme di funzionalità tecnologiche per suppor- zioni che consideri i dati come asset da sfruttare tare obiettivi di gestione delle informazioni. Con per ottenere un vantaggio competitivo, è neces- il termine “Big Data” si fa riferimento a informa- saria un’infrastruttura informativa ben organiz- zioni caratterizzate da dimensioni estremamen- zata, agile ed efficace. Le tradizionali tecnologie te elevate, eterogeneità, complessità ed esigen- di gestione delle informazioni non sono in grado ze di elaborazione rapida. di far fronte all’esplosivo volume di dati etero- genei presenti in molte aziende. Il grande valo- L’approssimarsi di sfide incombenti è indicato re e le potenziali responsabilità che si celano in dalle previsioni secondo le quali entro il 2015 i questi dati sta suscitando un nuovo interesse dispositivi intelligenti nel mondo saranno 200 verso l’infrastruttura informativa. Le nuove ten- miliardi ed entro il 2020 il numero di dati invia- denze in tale infrastruttura cambieranno il modo ti via Web ogni giorno sarà pari a 275 esabyte, di concentrare e distribuire tecnologie e com- nonché dal crescente desiderio di utilizzare e- petenze di gestione delle informazioni, con l’o- 3
  • 4. biettivo di migliorare radicalmente l’efficacia in neità, complessità e velocità contribuiscono termini di costi, agilità, trasparenza di gestione e alla nascita di sfide impegnative in termini di uso degli asset informativi. gestione delle informazioni. • Verificare che vi siano competenze, ruoli e Fattori d’importanza dell’infrastruttura strutture organizzative adeguati per sfrutta- informativa e dei progetti basati sui Big re queste tendenze chiave. Infrastruttura in- Data: formativa e progetti basati sui Big Data non sono da ricondurre solo alla tecnologia, poi- A) Per i CIO ché un approccio esclusivamente tecnologi- co non garantisce alcun successo. I “Big Data” rappresentano per i CIO una stra- ordinaria opportunità per aggiungere valore GESTIONE DELL’INIZIATIVA all’attività aziendale attraverso il recupero di DI INFRASTRUTTURA INFORMATIVA dati analitici e l’identificazione di modelli dalla E DEI PROGETTI BASATI SUI BIG grande quantità di informazioni disponibili. Per DATA MEDIANTE QUESTO ottenere questo vantaggio, i CIO devono: APPROCCIO STRUTTURATO • Collaborare con i leader aziendali per iden- tificare le opportunità rilevanti e sviluppa- Strategia e pianificazione: redigere una bozza di re una visione condivisa sulle informazioni atto costitutivo in allineamento con gli obiettivi dell’impresa, tenendo conto delle fonti di in- aziendali con lo scopo di ottenere un consenso formazioni più recenti quali social network e sulla visione e sul compito alla base del progetto. tecnologie operative. Delineare l’ambito del progetto e definirne risor- • Indirizzare le proprie organizzazioni verso la se, budget e sistemi di governance. Integrare tut- modernizzazione dell’infrastruttura informati- to questo nei piani IT strategici e aziendali. va e l’allineamento di tecnologie e competen- ze di gestione delle informazioni per ottenere Creazione di una soluzione: definire l’architettura, una base coerente e agile per l’accesso, la di- la tecnologia e gli standard del progetto. Model- stribuzione e il controllo delle informazioni. lare i requisiti aziendali e descrivere nel dettaglio • Gestire l’infrastruttura informativa e i pro- le specifiche per la distribuzione della soluzione. getti basati sui Big Data come competenze Suggerire procedure per l’implementazione del e programmi continui invece che come pro- progetto. Definire i dettagli del processo e i criteri getti discreti a breve termine. I progetti basa- di calcolo dei risultati. Comunicare il piano. ti sui Big Data non possono essere conside- rati come avulsi dal lavoro di gestione delle Selezione della soluzione: impostare requisiti ed informazioni (e dell’infrastruttura correlata) emettere RFP. Analizzare le informazioni del mer- già in corso nell’azienda. cato. Valutare le opzioni di fornitori e provider di servizi. Scegliere tecnologie e fornitori/provider B) Per i Responsabili IT di servizi. Negoziare accordi sui livelli di servizio e contratti. La modernizzazione dell’infrastruttura informa- tiva e la preparazione a gestire progetti basati Implementazione: fornire personale e gestirne sui Big Data richiederanno ai responsabili IT di: l’implementazione. Coordinare la distribuzione • Valutare lacune e sovrapposizioni nelle tec- della soluzione. Creare l’ambiente di sviluppo e nologie di gestione delle informazioni e svi- eseguire test. Richiedere il feedback degli utenti. luppare un piano di razionalizzazione o di in- Monitorare i rischi. cremento delle capacità in sede. • Fissare gli obiettivi di una visione strategica Azione ed evoluzione: realizzare e gestire l’im- per l’infrastruttura informativa attraverso uno plementazione. Effettuare analisi sulla base schema di funzionalità IT. I responsabili IT po- di feedback, rischi e cambiamenti dei requisiti tranno quindi realizzare una roadmap mirata aziendali. Misurare le prestazioni. Monitorarne a sostenere le esigenze informative in modo l’uso e la conformità. Sviluppare competenze e efficiente e indipendente dalle applicazioni. definire le prassi migliori per gli utenti. Perfezio- • Comprendere che con il termine “Big Data” nare i processi di governance. si fa riferimento a molto di più che a volumi di dati poiché dimensioni elevate, eteroge- Fonte Gartner: Ricerca G00214426, Ted Friedman, 22 July 2011 4
  • 5. COME STA EVOLVENDO IL CICLO DI VITA DEI DATI Secondo Giovanni di quanto già a disposizione e la definizione di percorsi che Calvio, manager of tengano conto di quanto serve Storage Platform di oggi e, nei limiti del possibile, IBM Italia, le aziende anche di quanto potrà accade- re domani. In sintesi un’infra- oggi hanno la struttura che possa evolvere necessità stringente realmente in funzione delle di poter elaborare stesse esigenze. Della realtà presente sul mercato italiano e analizzare e dell’evoluzione tecnologica rapidamente in corso, abbiamo parlato con le informazioni Giovanni Calvio. necessarie per Quanto vale ancora oggi prendere decisioni l’assioma “storage = capa- cità” e nient’altro? In qua- strategiche. Uno le misura nella realtà delle e la qualità dei dati presenti e, soprattutto, occorre capi- storage razionalizzato aziende, soprattutto italia- re quali sono le nuove moda- ed efficiente deve ne, la risposta all’aumento lità che gli utenti usano per progressivo dei dati da supportare questa gestire si concretizza sem- accedere alle informazioni. I driver di business, oggi, stan- esigenza primaria. plicemente nell’aggiunta no spingendo in tre direzioni: di nuovi dispositivi? potenziamento dell’agilità dei L a gestione del ciclo di vita delle informazioni è costru- ita ancora intorno a miti, come Non solo in Italia ma un po’ in tutto il mondo, spesso si con- sistemi, miglioramento della capacità di prendere decisioni in azienda e semplificazione la perdita progressiva di valore tinua a pensare che l’informa- delle operazioni ottimizzando nel tempo dei dati e la prevedi- zione perda valore nel tempo i workload presenti nel data bilità delle modalità di accesso e soprattutto che le modalità center. Rendere più efficiente da parte degli utenti. La mag- utilizzate da ciascun utente per lo storage significa anche es- gior parte delle infrastrutture accedere all’informazione sia- sere pronti a soddisfare i futuri storage sono costruite intorno no sempre prevedibili. Questo bisogni, che crescono nel tem- a queste convinzioni, che in re- presupposto porta alla convin- po in maniera imprevedibile. altà oggi valgono assai poco. zione che periodicamente ci Il successo di un business si sia bisogno di nuova capacità Quali sono, rispetto allo basa sempre di più sulla capa- all’interno di un data center. scenario descritto, le cità di elaborare rapidamente i Invece, il futuro richiede un esigenze o le evoluzioni dati, analizzarli, renderli dispo- approccio diverso allo storage. che accomunano le grandi nibili come e quando servono. Sempre più, infatti, sono le ne- aziende e quelle medio- E in questo contesto è impor- cessità del business a guidare piccole e dove invece tante avere una corretta stra- il flusso delle informazioni e da si evidenziano ancora tegia in campo tecnologico, qui nascono le opportunità le- importanti differenze? che non si limiti ad accumulare gate allo smarter computing, al dispositivi e capacità nei data cloud e alla business analytics. Ci sono oggi più analogie che center, ma punti sulla raziona- Abbiamo sempre più bisogno elementi distintivi. Le esigen- lizzazione, l’utilizzo ottimizzato di conoscere meglio il valore ze e le sfide sono abbastanza 5
  • 6. I passi da seguire per ottimizzare i carichi di lavoro Fonte: IBM simili anche se chiaramente utilizzando al meglio quanto è re Optimization, emerge che nei grandi data center ci sono già presente nei data center, in media il 50% della capacità maggiori risorse a disposizio- evitando in questo modo di storage presente in un data- ne e un budget in valore asso- acquisire capacità in eccesso. center è inutilizzato. luto più importante. Tuttavia, Quando si realizzano progetti in questo momento è dalla fa- di consolidamento, general- E allora da dove si può scia medio-bassa del mercato mente si affronta anche il tema partire per avere uno che arriva una maggiore spin- della data protection e data re- storage più efficiente? ta all’innovazione. Nelle realtà tention, utilizzando tecniche più piccole le strutture sono automatiche di ottimizzazione Sicuramente dal consolida- più snelle e la reattività è più della capacità. mento, anche se un primo vero immediata. Di conseguenza, i passo in direzione dell’efficien- budget limitati portano a indi- Quanto sono consapevoli za si compie con il tiering del viduare nuovi approcci e nuo- le imprese di possedere dato, rendendolo automatico ve soluzioni. capacità inutilizzata e di o utilizzandolo in modo nativo poter recuperare spazio all’interno dei sistemi. In que- Quali sono, in ambito senza dover aggiungere sto modo, si migliora l’efficien- storage, i fattori di nuovo storage? za su ogni singolo carico appli- maggior interesse per le cativo, evitando investimenti imprese? Per essere sinceri, ben poche onerosi, come nel caso dell’ac- aziende sono in grado di valu- quisto di dischi allo stato solido Certamente sono molto senti- tare correttamente i loro livelli per il solo obiettivo di aumen- ti i temi del consolidamento e di utilizzo delle risorse storage. tare le performance. A questo del miglioramento delle per- Per IBM invece si tratta di un si può aggiungere tutto quanto formance, soprattutto in dire- punto focale e la nostra offerta concerne la compressione del zione della velocità di accesso va proprio in questa direzione. dato, che può avvenire a mon- ai dati. Sta emergendo grande Da circa un paio di anni, IBM te dello storage primario e non interesse per le nuove modali- offre ai propri clienti la possi- ha impatti sulle applicazioni o tà di archiviazione dei dati, in bilità di effettuare un’analisi sui carichi di lavoro che stanno particolare per le tecnologie di precisa del livello di efficienza funzionando. Si prepara così il deduplica. La tendenza è quel- del proprio storage in modalità terreno per la virtualizzazione, la di virtualizzare l’infrastrut- completamente gratuita. Esa- un passaggio che prima o poi tura storage, cercando di pro- minando i risultati degli studi, occorre affrontare, soprattutto teggere gli investimenti fatti e chiamati Storage Infrastructu- per chi pensa a un orizzonte fu- 6
  • 7. Cloud e virtualizzazione si integrano nell’infrastruttura storage Fonte: IBM turo orientato al cloud. Due anni immediate e legate alla qualità poi declinarle per le esigenze fa di Big Data non si parlava af- e al valore del dato e i budget delle piccole e medie imprese... fatto e oggi, invece, è un tema andranno mantenuti leggeri. In La nostra strategia per lo sto- all’ordine del giorno. Ma fra altri questo contesto IBM si sente in rage è chiara e coerente e la due o tre anni cosa succederà? grado di dare risposte concrete ricchezza della nostra offerta Per questo è importante costru- nell’interesse del business delle può rispondere ad ogni tipo di ire un’infrastruttura che serva imprese: parliamo di un’azien- esigenza, in funzione dei diver- a proteggere gli investimenti da che vanta oltre cent’anni di si budget. I dati ci confermano fatti anche in funzione di future esperienza nella soluzione di che il mercato ha compreso il evoluzioni oggi sconosciute. Le problemi complessi, ha sempre valore delle nostre soluzioni e richieste degli utenti continue- investito considerevoli risorse apprezza la nostra coerenza e i ranno ad aumentare e saranno economiche nella ricerca & svi- risultati che abbiamo ottenuto sempre diverse, le decisioni di luppo, ha creato soluzioni avan- sul mercato italiano sono il no- business saranno sempre più zate per il mondo enterprise per stro fiore all’occhiello. Gli effetti dell’evoluzione verso Big Data e Business Analytics Fonte: IBM 7
  • 8. L’ORGANIZZAZIONE DELLO STORAGE CONTA PIÙ DELLA CAPACITÀ Per molto tempo, alla crescita dei dati in azienda è stata associata la progressiva aggiunta di nuovi dispositivi di memorizzazione. L’esplosione degli ultimi anni sta rendendo sempre più importante la definizione di una strategia basata sull’analisi di quanto circola in azienda e una gestione maggiormente proattiva. I crescenti volumi di informa- zioni da gestire in azienda, gli obblighi collegati ai temi indispensabili per le aziende che vogliono stare al passo, mentre i dati da trattare e ana- cerca IBM, in particolare con la memoria Racetrack, che com- bina i benefici degli hard drive della governance e complian- lizzare continuano a crescere. magnetici con quelli a stato ce normativa e la ridondanza In base a un’indagine condot- solido, per arrivare a poter ela- dei dati sono fattori che stanno ta da IBM nel 2011, il 57% dei borare imponenti quantità di spingendo i responsabili dei si- decision maker dell’IT hanno dati memorizzati in meno di un stemi informativi alla ricerca di ammesso che la propria orga- miliardesimo di secondo. soluzioni storage che, nell’ac- nizzazione ha bisogno di un cezione cara a IBM, potremmo nuovo approccio allo storage, I dati collegati definire “smart” ovvero intelli- , utile per gestire la crescita fu- ai carichi di lavoro genti, efficienti e flessibili allo tura. Big data, tuttavia, non signifi- stesso tempo. ca automaticamente “bigger La materia è peraltro com- storage”. Non ci può e non ci Non solo i CIO, ma anche i re- plessa e può essere esamina- deve essere una correlazione sponsabili di linee di business ta da differenti punti di vista. diretta fra la quantità di dati o il top management hanno Storicamente, si è portati a da gestire e i Terabyte a dispo- compreso come lo storage e la considerare il problema es- sizione in azienda, anche se il protezione dei dati siano com- senzialmente dal punto di vista costo dell’hardware è diminui- ponenti critiche di un’evolu- del supporto fisico. È da oltre to negli anni. Questo ha spinto zione tecnologica sempre più vent’anni che le nuove quanti- molte realtà ad ampliare sem- connessa alla gestione dei big tà di dati creati sono utilizzati plicemente la capacità, una data, al cloud computing e alle e veicolati in formato digitale. I scelta certamente più comoda applicazioni analitiche. Questi concetti di “disco” e “storage” rispetto a una seria analisi dei elementi fanno anche parte del sono stati per lungo tempo dati immagazzinati, quali di trend verso “l’internet delle considerati quasi sinonimi ed è questi sono critici e per quali cose”, ovvero il complesso di sulla capacità che si è concen- motivi, quali vadano conser- informazioni che risiede in un trata a lungo la ricerca. Dagli vati, dove e per quanto tempo. crescente numero di sensori obsoleti floppy e hard disk del- e microchip integrati negli og- le prime generazioni, si sono Proprio l’esplosione dei dati getti della nostra vita quotidia- succedute nel tempo nuove alla quale stiamo assistendo, na. L’obiettivo è rendere tutte tecnologie concentrate sulla invece, dovrebbe indurre le queste cose interconnesse, in densità dei supporti e l’acces- aziende a definire una strate- modo da ottenere un livello so ai dati in essi contenuti. gia storage basata sulla cura più alto di “intelligenza”. Ancora oggi una consistente dei dati e la loro gestione attenzione è dedicata a questi proattiva lungo tutto il ciclo L’efficienza dello storage e la aspetti, come dimostrano svi- di vita. La selezione, la valu- protezione dei dati critici sono luppi recenti proprio della ri- tazione e l’organizzazione dei 8
  • 9. dati sono elementi-chiave del costo più elevato, lasciando su modo il più possibile auto- lavoro necessario per rendere supporti come i nastri i dati da matizzato. Sfruttare al meglio i dati stessi accessibili e inter- conservare per motivi di leg- i dispositivi a bassa velocità pretabili dalle persone giuste ge o di opportunità, ma poco abbassa i costi di utilizzo e di in azienda, in base a ruoli e pri- critici per il business ordinario consumo energetico, miglio- vilegi assegnati. dell’azienda. Laddove possibi- rando l’efficienza complessiva le, poi, occorre creare un mag- dell’infrastruttura. Allo stesso Il tema dei Big Data rappresen- gior livello di interazione fra modo, la deduplica può essere ta al momento l’elefante nel- le informazioni, consolidando ormai considerata una modali- la stanza e le proiezioni degli silos preesistenti ma senza in- tà standardizzata per ridurre la analisti parlano di un aumento cidere necessariamente sulla quantità di storage necessaria dell’800% nei prossimi cinque capacità a disposizione, quindi per la gestione di grandi set di anni. Per affrontare corretta- attraverso processi di virtualiz- dati, al pari della compressio- mente la sfida, l’IT deve farsi zazione o fruizione in modalità ne, ben sapendo che la prima saggia e attivare una strategia cloud. si adatta in modo particolare ai a livelli, necessaria per rendere file di testo, mentre la seconda le informazioni più importanti L’utilizzo di una logica a livelli può essere impiegata per do- più accessibili delle altre. I dati è critica per cercare di ridurre cumenti audio e video. devono essere pertanto collo- i costi. Questo significa non cati nel posto giusto e collega- solo collocare, per esempio, Il disegno dello storage come ti ai carichi di lavoro essenziali i dati fondamentali su dispo- “sistema efficiente”, attraver- per il business aziendale. Quan- sitivi a stato solido e quelli so l’ottimizzazione dell’infra- to realmente utile e a maggiore non strutturati usati una volta struttura, l’automazione dei tasso di fruizione va collocato sola su nastri, ma anche fare processi e il corretto calcolo su dispositivi a tecnologia più in modo che gli spostamen- del TCO rappresenta oggi uno avanzata, per garantire presta- ti verso l’alto o il basso della dei principali fattori di vantag- zioni ed efficienza, anche se a piramide possa avvenire in gio competitivo. 9
  • 10. LA VISIONE DI IBM SI PROIETTA NEL FUTURO Messo a punto un concetto di infrastruttura storage che si basa sulle evoluzioni portate avanti negli ultimi anni, ma è già pronta ad accogliere le sfide che arriveranno in futuro. La chiave di volta sta nella disponibilità nativa di elementi come il right tiering, la virtualizzazione e tecniche evolute di compressione in tempo reale. I l mutevole mondo nel quale viviamo rende at- tuali in un dato momento problematiche che solo qualche tempo prima non venivano nem- Su queste basi, IBM ha costruito la propria visio- ne orientata a un’infrastruttura storage di nuova generazione, un concetto, prima ancora che un meno prese in considerazione. Il fenomeno della insieme di tecnologie, con focalizzazione sulle moltiplicazione dei dati da gestire per un’azien- aree di potenziale riduzione dei costi e la predi- da non è nuovo di per sé, ma temi come i Big sposizione “nativa” agli sviluppi che arriveranno Data o gli strumenti di analisi evoluta non erano anche a medio e lungo termine. L’ottimizzazione due anni fa al centro dell’attenzione dei manager dei carichi di lavoro esistenti, il miglioramento quanto lo sono oggi. Ed è possibile, se non pro- dell’agilità che passa attraverso l’adozione del babile, che fra due o tre anni qualche altro tema o cloud computing e l’integrazione fra Business stringente esigenza avrà spostato altrove il cen- Analytics e Big Data sono i business driver che tro dell’interesse. oggi maggiormente coinvolgono lo storage. Qualcosa di nuovo arriverà di certo a medio ter- Il tema della gestione dei dati è fra quelli che me- mine. Come prepararsi a questo percorso? glio si adattano a questo genere di riflessioni. La crescita dei volumi è un dato di fatto ampiamen- La risposta di IBM sta in una proposta infra- te documentato: il clima competitivo e le diffi- strutturale nella quale l’efficienza dello storage coltà congiunturali hanno elevato il valore delle è integrata a livello di progettazione, l’ottimiz- informazioni e le aspettative di manager e utenti zazione avviene in modo automatizzato, la vir- sulla capacità dell’IT di saper fornire quanto ser- tualizzazione è presente nativamente e tutti i ve per fare analisi e prendere decisioni in modo processi sono guidati da policy definite e stret- rapido ed efficace. Per chi governa i sistemi in- tamente legate alle applicazioni. In questo modo formativi, con budget essenzialmente piatti, la si ottiene una riduzione dello spazio fisico occu- necessità di gestire dati in continua crescita si pato fino all’80% e della complessità fino al 30%, scontra con una complessità infrastrutturale un aumento dell’utilizzo di quanto esistente fino dettata dalla presenza di architetture poco fles- al 30%, performance applicative triplicate e una sibili ereditate dal passato e dall’incremento del- diminuzione dei costi fino al 50%. la complessità derivata dallo sviluppo della vir- tualizzazione e dell’interconnessione di sistemi L’ottimizzazione dei carichi di lavoro esistenti può e dispositivi di varia natura. essere certamente un buon punto di partenza. Anche IBM ha preso da qui le mosse per pro- Un’evoluzione basata sui business driver porre già oggi alle aziende tecnologie e soluzioni Un approccio solo reattivo a queste sfide porta utili per aumentare l’efficienza dello storage. La inevitabilmente a una pura crescita dei costi, in gestione dinamica e distribuita multilivello (con particolare dello storage rispetto a quelli IT ge- IBM Easy Tier e Active Cloud Engine) e le tecnolo- nerali. Individuare le inefficienze e ottimizzare i gie di compressione, deduplica, thin provisioning processi può essere un buon punto di partenza, e thin replication consentono di muovere i dati ma le esigenze presenti e future richiedono un sui dispositivi più adatti in base alle esigenze di nuovo approccio allo storage, fatto di intelligen- utilizzo e consultazione, così come di ridurre lo za, efficienza e automazione. spazio fisico occupato. 10
  • 11. Gli ultimi aggiornamenti di gamma La nuova visione IBM per una infrastruttura storage di nuova generazione è corroborata da numerosi aggiornamenti nella gamma di prodotti. I prodotti della gamma IBM Storwize V7000 integrano la tecnologia Real-time Compression, che consente di utilizzare la compressione anche per i dati di produzione, a differenza di quanto accade nei prodotti concorrenti, che ne consentono l’uso solo per i dati a bassa attività. Sono stati aggiunti, inoltre, il supporto di Fibre Channel over Ethernet e del clustering a quattro vie. Le stesse migliorie sono state apportate alla versione 6.4 di SAN Volume Controller, che in più ag- giunge la migrazione trasparente dei volumi virtuali fra nodi SVC, in modo da massimizzare la fles- sibilità delle configurazioni. Tivoli Storage Productivity Center, invece, nella versione 5.1 offre una nuova interfaccia integrata Web-based, il supporto per la gestione basata su cloud dello storage, nonché del reporting e delle capacità analitiche basati su Cognos. A ciò si aggiunge la possibilità per le applicazioni di rilevare automaticamente e fare il provisioning dei file con dispositivi SONAS e Storwize V7000 Unified. Sono stati infine migliorati i sistemi storage DS3500 e DCS3700, per aziende piccole e medie che ne- cessitano di migliorare il tempo di backup e le prestazioni dello storage in caso di ripristino, cose che avvengono attraverso le tecnologie Enhanced FlashCopy e Adaptive Disk Pooling. Potenziato anche il supporto per ambienti server VMware in chiave di comunicazione fra gli host e gli array storage. Per chi sta valutando o sperimentando il cloud anche al di fuori dell’ambiente storage, in- computing, la virtualizzazione nativa e una ge- tegrandosi con le memorie dei server e con stione policy-driven consentono di ottenere una l’operatività delle applicazioni di business). maggiore automazione nell’erogazione dei ser- vizi, il monitoraggio e l’ottimizzazione dinamica Lo storage recepisce in tempo reale delle capacità. Discorso analogo le policy aziendali può essere fatto per le esigenze di integrazione Le infrastrutture storage di nuova generazio- fra Business Analytics e Big Data. ne hanno le stesse caratteristiche delle so- luzioni IBM PureFlex System e SmartCloud, La visione per una infrastruttura storage di nuo- in grado cioè di fornire un’ottimizzazione va generazione di IBM guarda però anche avan- integrata end-to-end, mentre l’IBM Storage ti, alle sfide che arriveranno nei prossimi anni, Service Catalog stabilisce il legame fra i re- per far sì che già oggi l’infrastruttura storage sia quisiti-utente e le capacità dell’IT, aiutando preparata ad accoglierle. L’efficienza, dunque, ad accrescere i livelli di servizi e la soddisfa- viene realizzata già nella progettazione, attra- zione dei clienti, controllando anche i costi. verso la presenza di caratteristiche avanzate e preinstallate, utili per eliminare complessità e I data center, infine, lavorano in base a spe- barriere all’ingresso. La tecnologia Real-time cifiche policy. Le performance applicative, Compression, integrata nativamente nei sistemi la schedulazione dei backup o i requisiti di Storwize V7000, e SAN Volume Controller sono conservazione dei dati sono personalizzati in esempi indirizzati alla riduzione degli spazi. base alle esigenze di ogni organizzazione. Una volta definite, le policy dovrebbero essere fa- Lo storage del futuro, poi, dovrà anche ottimiz- cili da replicare e automatizzare. Lo storage zarsi “da solo” in modo intelligente e automati- presente e futuro deve quindi essere policy- co, per allinearsi alla velocità del business, au- driven, ad esempio per migrare file inattivi su mentare il throughput delle applicazioni critiche dispositivi di livello più basso o replicare i dati e supportare nuovi carichi, come i desktop vir- fra sistemi per velocizzare gli accessi. Tivoli tuali, per fare un esempio. IBM integra tecnolo- Storage Productivity Center e SAN Volume gie di auto-ottimizzazione come XIV (automazio- Controller lavorano insieme per implementa- ne del load balancing e della qualità del servizio) re una politica di “right tiering”, che fin qui era e Easy Tier (che andrà a estendere il supporto impossibile in un data center dinamico. 11
  • 12. LE MOSSE PER OTTENERE UNO STORAGE EFFICIENTE Partendo dal concetto più esteso di smarter computing, IBM invita a spostare il focus dalla pura memorizzazione dei dati alla capacità di allocarli nel posto più utile per il loro reperimento usando la virtualizzazione per migliorare la capacità di provisioning dei sistemi già presenti nell’infrastruttura aziendale. N ell’It dei nostri giorni, niente appare più impor- tante del concetto di efficienza. Ci sono altre parole d’ordine ricorrenti, come riduzione dei costi, qualità del servizio, intel- ligenza. Oppure cloud compu- ting, virtualizzazione e conso- lidamento, se scendiamo sul terreno più pratico. Ma tutto discende dalla capacità di “fare le cose nel modo giusto” per , parafrasare il guru del mana- gement Peter Drucker, ovvero avere una visione d’assieme delle infrastrutture da gestire e organizzarle in modo da soddi- sfare le richieste che vengono dal top management di un’a- zienda o dalle linee di business, nell’invito a spostare il focus disposizione fino al doppio ri- cercando il miglioramento con- dalla semplice necessità di me- spetto alla norma, ottenendo tinuo e non la semplice crescita morizzare i dati alla capacità di anche una riduzione del 38% incontrollata delle risorse. allocarli nel posto più utile per nella capacità fisica richiesta il loro reperimento e utilizzo, e fino all’80% delle esigenze La trasformazione di questa recuperando spazio con una gestionali. Da questi valori, si visione in realtà passa per IBM compressione che può avveni- può facilmente comprendere attraverso il concetto di Smar- re anche in tempo reale e uti- come uno storage efficiente ter Computing, che non si ap- lizzando la virtualizzazione per generi vantaggio competitivo. plica solo allo storage, ma si migliorare la capacità di utiliz- L’obiettivo si può raggiungere estende ad altre aree-chiave zo e provisioning dei sistemi partendo dal disegno infra- dell’It, come l’elaborazione già presenti nell’infrastruttura strutturale, costruito su criteri delle informazioni, il software aziendale. di ottimizzazione per singoli applicativo e le analisi. Rende- carichi di lavoro e un TCO che re concreto questo concetto In base ai valori medi ottenu- possa far leva sull’automazio- implica la massima attenzione ti da analisi di mercato e da ne dei processi (tiering, provi- su aspetti come l’automazio- studi condotti presso propri sioning), sulla virtualizzazione, ne, l’integrazione e il cloud. clienti, IBM ha potuto stimare sull’erogazione dei servizi in che una maggiore efficienza modalità cloud e su tecnologie La ricerca di efficienza in am- nell’utilizzo dello storage con- evolute per la compressione e bito storage si traduce per IBM sente di sfruttare le risorse a la deduplica dei dati. 12
  • 13. Una completa gamma di sistemi Le soluzioni per lo storage efficiente proposte da IBM com- binano la tecnologia di una gamma hardware completa (che spazia dai sistemi entry-level a quelli high-end di fa- scia enterprise) con specifiche funzionalità per la virtualiz- zazione, il tiering automatico e il thin provisioning, fra le altre cose. L’offerta di sistemi midrange si sostanzia nelle famiglie Storwize V7000 e DS di fascia più bassa. La prima rappre- senta gli array di riferimento per il midmarket, con capacità da 300 GB fino a 1.4 PB (configurazioni cluster) e perfor- mance da 8 Gbps Fibre Channel e 1 Gbps iSCSI. L’evolu- zione più recente riguarda la combinazione fra lo storage di tipo NAS basato su file con quello di tipo SAN basato su blocchi. Storwize V7000 Unified ottimizza l’utilizzo della ca- pacità a disposizione e migliora il provisioning, aggiungen- do la presenza di una singola interfaccia-utente per l’ammi- nistrazione dei dispositivi. I pool storage, inoltre, possono essere condivisi fra carichi di lavoro per blocchi e per file. Sempre orientati al mercato intermedio, le gamme DS3000 e DS5000 sono progettate per soddisfare le esi- genze di sistemi aperti di oggi e di domani, stabilendo un nuovo standard per la longevità del ciclo di vita, con schede di interfaccia host sostituibili a caldo. L’architet- tura hardware di settima generazione, inoltre, garantisce alte prestazioni, scalabilità multidimensionale e protezio- ne degli investimenti. Le famiglie DS8000 e XIV sono invece rivolte al mercato di fascia alta. I DS8000 beneficiano da poco dell’integrazione con la più recente evoluzione di Easy Tier a tre livelli, che consente di avere sempre e in automatico il miglior bilanciamento di flussi e prestazioni fra i disposi- tivi SSD (più potenti ma anche onerosi), i moduli disco di fascia enterprise e quelli nearline (a costi più bassi) anche nella versione con crittografia integrata. I requisiti prestazionali sono soddisfatti al minor costo possibile sempre garantendo la qualità del servizio. La serie IBM XIV indirizza le sfide connesse allo storage su tutto lo spettro applicativo, includendo le soluzioni di virtualizzazione, database, analytics e protezione dei dati. L’architettura GRID a massiccio parallelismo rende XIV la piattaforma ideale per il cloud computing e gli ambienti virtualizzati. Fra i sistemi di file storage di IBM spicca la soluzione Scale Out Network Attached Storage (SONAS), che virtualizza e consolida file multipli in un singolo file system enterprise-wide, riducendo così il Total Cost of Ownership e i costi di capitale, aumentando l’efficienza operativa. Al di là della scalabilità in- trinseca della piattaforma, di recente si è aggiunta l’integrazione di Active Cloud Engine, motore di file management basato su policy che rende efficiente la condivisione e la collaborazione tanto su scala locale (all’interno di un’azienda) che globale (su siti multipli). In ambito Nas, si aggiungono all’offerta anche i prodotti modulari della serie N, mentre i virtual tape TS si indirizzano alle esigenze di protezio- ne e conservazione dei dati a basso costo. 13
  • 14. La centralità del tiering concetto nuovissimo, ma l’e- necessario. Il motore, basato automatico voluzione verso l’automazione su policy, è abbinato a un file Le soluzioni per l’efficienza ne sta rapidamente allargando system che consente di ge- dello storage messe a punto da il potenziale. Tecnicamente, la stire i dati in modo semplice IBM si possono raggruppare in tecnologia consente di muove- e scalabile. Con Active Cloud diverse categorie, tutte funzio- re automaticamente differenti Engine, la gestione risulta effi- nali al disegno complessivo. È blocchi di dati attraverso i vari ciente tanto a livello locale che importante, come abbiamo già livelli dell’architettura, in base globale. Nel primo caso, dato sottolineato, che i dati venga- alle policy definite per ragioni un posizionamento iniziale, lo no collocati sui dispostivi più di business o di compliance e spostamento avviene in modo adatti in ragione del loro utiliz- studiate per ottenete la massi- trasparente fra i pool interni ed zo e della loro criticità. Nell’i- ma ottimizzazione del provisio- esterni, mentre vengono impo- deale piramide utilizzabile ning. IBM Easy Tier si occupa stati automaticamente backup, come metafora dell’infrastrut- proprio di queste funzionalità restore e replica interna e/o tura storage di un’azienda, in modo dinamico. Nata sui remota. Nel secondo caso, si alla base troviamo le librerie dispositivi di fascia enterpri- ottiene una significativa ridu- di nastri (fisici o virtuali) che se, la tecnologia è stata estesa zione dei costi di rete, con la fungono da archivio per i dati anche ai prodotti midrange. La memorizzazione dei file in siti che necessitano di essere con- possibilità di spostare auto- remoti prima dell’effettiva rice- servati per lungo termine. Via maticamente i dati da dischi zione della richiesta (garanzia via che si sale, troveremo hard di prestazione a dischi di ca- di alta disponibilità e accesso disk drive di capacità e di pre- pacità, in base alle esigenze rapido), ma anche l’eliminazio- stazioni, flash disk o dischi allo di business e ai volumi logici, ne della replica dei file nei siti stato solido, nei quali collocare consente di arrivare a triplicare remoti. i dati di maggior peso e impor- le prestazioni complessive pur tanza per l’azienda. Detto che usando dischi allo stato solido Sul lato dell’ottimizzazione del- IBM offre una gamma comple- solo nel 2% del totale. le capacità, un notevole passo ta di dispositivi hardware che avanti è stato compiuto con la coprono ogni elemento della Active Cloud Engine, invece, disponibilità della tecnologia piramide (si veda box in que- è un motore che costituisce la Real Time Compression, che ste pagine), è nelle tecnologie base dei sistemi di file stora- consente di lavorare solo sui integrate che si possono trova- ge SONAS (Scale-Out NAS) e blocchi necessari, tipicamente re gli elementi differenziali in consente agli utenti di gestire sui dati di primaria importanza, termini di efficienza. elevati numeri di file in modo senza degrado di prestazioni. In efficiente, individuando rapi- questo modo, si ottiene la pos- Il tiering dello storage, ad damente i dati di interesse e sibilità di ospitare una volume esempio, non è di per sé un li rende disponibili laddove è di dati fino a cinque volte supe- riore rispetto alle soluzioni tra- dizionali, guadagnando ulterio- re efficienza lungo il ciclo di vita dei dati. Agendo solo su quelli primari, anche tutte le succes- sive copie, backup, archiviazio- ni, snapshot e replica saranno compresse. L’operazione viene eseguita alla prima memoriz- zazione, rendendo possibile un minor invio di dati fisici ai siste- mi storage. Le appliance Real Time Compression si adattano a NAS non solo IBM (N Series), ma anche di altri produttori e può comprimere file e databa- se primari fino all’80%. 14
  • 15. IBM PORTA L’HYPERVISOR NEL MONDO DELLO STORAGE Combinando SAN Volume Controller con Tivoli Storage Productivity Center, Big Blue propone una soluzione dedicata di virtualizzazione che può integrare anche array di altri produttori. Così si pongono le basi per l’evoluzione verso il cloud. I n molte realtà, la virtualizzazione è un concetto che è stato inizialmente applicato soprattutto alla componente dei server presenti nei sistemi informativi. Molti dei benefici che se ne posso- no ricavare – dal miglioramento dell’utilizzo delle risorse alla flessibilità, dai tempi di risposta alla mobilità dei carichi di lavoro fino al disaster reco- very – possono tuttavia risultare limitati se solo una parte dell’infrastruttura viene coinvolta nel processo. Ecco perché la virtualizzazione dello storage è una componente critica dell’evoluzione dei sistemi informativi e costituisce anche uno dei fondamenti per un’efficace implementazione del cloud computing. sempre SAN Volume Controller, mentre il “re- Nell’ambito delle soluzioni proposte da IBM, SAN gista” è IBM Tivoli Storage Productivity Center. Volume Controller (SVC) rappresenta la tecnolo- A questo, IBM aggiunge Tivoli Storage Flash gia dedicata di maggior peso storico. Il prodotto, Copy Manager, sottolineando come la capaci- network-based, risiede in una SAN e si connette a tà di snapshot integrata con le applicazioni di sistemi eterogenei attraverso iSCSI o Fibre Chan- business ed incorporata nel prodotto sia un in- nel. Fino a otto nodi possono essere configurati grediente essenziale dello storage hypervisor. in cluster per ottenere scalabilità sull’ampiezza di banda o sulla capacità. Ogni modulo SVC inclu- Ottimizzazione con il thin provisioning de la replica fra sistemi storage e il mirroring fra In questo modo, è possibile creare un singolo unità locali o remote. Inoltre, SVC utilizza un’in- pool di dispositivi gestiti che possono essere terfaccia grafica modellata su IBM XIV Storage distribuiti su differenti array (anche di differenti System, progettata per rendere facile l’utilizzo e produttori). Lo storage virtualizzato (anche su semplificare il provisioning. array singolo) funziona in modo diverso rispet- to ai metodi tradizionali di condivisione in una Lungo la strada tracciata, IBM è arrivata a pro- SAN. Di solito, infatti, ogni applicazione viene porre un concetto di hypervisor dello storage che allocata in una porzione dello storage fisico si allinea a quanto già disponibile nel mondo dei disponibile, in base alle necessità specifiche. server. Dietro quello che è stato battezzato Sto- Questa modalità tende però a lasciare spazio rage Hypervisor si cela una combinazione di sof- libero inutilizzato. Il thin provisioning dello sto- tware storage, che integra le necessarie funzioni rage hypervisor, invece, mette a disposizione di virtualizzazione dello storage e di software di delle applicazioni spazio virtuale utilizzabile a gestione, in modo da fornire il framework auto- piacimento, fino al limite dello storage fisico di- matico e centralizzato per tutte le risorse storage sponibile. Inoltre, esso disaccoppia i servizi sto- virtualizzate. Il prodotto che agisce praticamen- rage (mirroring o replica, per esempio) dai sot- te per rendere efficace questa combinazione è tostanti media fisici. Queste funzionalità sono 15
  • 16. molto importanti per attività come la protezione e differenti sistemi, come gli IBM XIV e DS8000, dei dati, il backup locale o il disaster recovery ma anche array di altri produttori. remoto. In un ambiente gestito da hypervisor, i servizi storage accompagnano i dati e questi pos- In prospettiva, il successo di un’evoluzione verso sono essere spostati virtualmente da un’istanza il cloud storage si ottiene attraverso un processo fisica all’altra. graduale, che inizia proprio con la disponibilità di un’infrastruttura virtualizzata e resa efficiente. Dovrebbe essere ovvio che un amministra- Questi aspetti, combinati con la gestione auto- tore che utilizzi lo schema hypervisor per lo matizzata, possono fornire un catalogo di servizi storage, debba dedicare il proprio tempo a com- con capacità di self-provisioning, collaborazione piti a maggior valore aggiunto. IBM SVC abilita la e abilitazione verso il concesso di pay-per-use. virtualizzazione, mentre Tivoli Storage Producti- Una cloud privata di storage offre numerosi van- vity Center non solo automatizza la gestione dei taggi agli utenti, a partire dall’erogazione più effi- cambiamenti, ma la rende possibile a un livello cace dei servizi, con livelli più elevati e un miglior più granulare. Il processo di gestione fa sì che i utilizzo degli asset. Gli ambienti storage virtua- dati vengano indirizzati su volumi virtuali attra- lizzati e dotati di capacità avanzate di deduplica, verso multipli livelli di storage (dalle memorie compressione e self-tuning sono meglio predi- flash SSD ai dispositivi FC/SAS fino a quelli SATA) sposti per il passaggio alla cloud privata. Il nastro compie 60 anni Mentre le imprese di tutto il mondo lottano con le incessanti ondate di dati che piombano nei loro data center, qualcuno potrebbe chiedersi come siamo arrivati a questo punto. E se da un lato vi è stato un gran numero di innovazioni nella storia dell’informatica, dall’altro è giusto dire che lo storage digita- le così come lo conosciamo oggi non esisterebbe se IBM non avesse creato il nastro nel maggio di sessant’anni fa. L’innovazione ha consentito agli enormi calcolatori di salvare i loro risultati in modo digitale su bobine di nastro magnetico, anziché su schede perforate o carta. Man mano che questi sistemi aumentavano le proprie prestazioni, le relative soluzioni di archiviazione non erano sostenibili. Per rispondere a questa esigenza IBM ricorse al nastro magnetico. La tecnologia, che veniva utilizzata per registrare l’audio, sembrava promettente per i massicci sistemi di calcolo, ma il nastro non era suf- ficientemente durevole. Quando si utilizzavano grandi bobine di nastro per acquisire i dati dei compu- ter, i potenti motori delle unità nastro, che si avviavano e si arrestavano bruscamente, ne provocavano facilmente la rottura. Gli ingegneri affrontarono questo problema in modo diretto. E il 21 maggio 1952, quando l’azienda rilasciò il suo primo computer di produzione, l’IBM 701, questo era accompagnato da un sistema di archiviazione che rappresentava una rivoluzione nel nastro magnetico. L’IBM 726 era un colosso da 424 chilogrammi, poggiato sul pavimento, che risolveva il problema della rottura grazie all’uso di una “colonna sotto vuoto”, che creava un tampone di nastro libero tra gli avvii e gli arresti. L’innovazione della colonna sotto vuoto non fu solo un successo, ma venne adottata dalla maggior parte dei produttori di unità nastro ad alte prestazioni, facendone una delle tecnologie informatiche più impiegate del XX secolo. Le sfide del 2012 non sono certo quelle del 1952. Oggi dinamiche rivoluzionarie, come social media, mobile computing, Big Data e regolamentazione, si intrecciano e creano un ingorgo del traffico digitale di dimensioni epiche. Secondo alcuni, la quantità di informazioni che dovrà essere archiviata in modo digitale supererà gli 8 Zettabyte (ossia 8 miliardi di Terabyte) entro il 2015. Queste tendenze e previsioni costringono ogni settore a esaminare le proprie infrastrutture di storage con un’attenzione senza pre- precedenti. Ma il nastro resiste ancora e IBM continua a investirci. 16
  • 17. LA SOLUZIONE DI SGM PER GESTIRE I BIG DATA Quello della grande gli interlocutori esterni; inno- vazione continua sia nelle tec- per selezionare i rivenditori più in sintonia con SGM e integrar- distribuzione è uno nologie che nei processi con li nella rete del gruppo; il nego- dei mercati dove l’obiettivo di essere un punto zio del futuro, con tecnologie e il volume di dati di riferimento nel mercato, alla portata di tutti. layout all’avanguardia per es- sere sempre più in sintonia con da elaborare e le esigenze e le aspettative del analizzare in funzione Il modello di business è in cliente finale. del business sta grado di cogliere veloce- mente le opportunità del L’infrastruttura aumentando con mercato e trasferirle in ma- tecnologica e i vantaggi maggior intensità. niera veloce ed efficiente L’impianto ICT, si basa su siste- Il più grande su tutti i canali di vendita. mi hardware aperti e scalabili, due Power Systems e blade IBM. associato al Gruppo Il risultato sono circa 14 milio- Per far fronte al volume crescen- Expert in Italia ha ni di articoli venduti ogni anno te dei dati da gestire ed elaborare rinnovato il sistema e 38.000 ogni giorno: pratica- mente vengono acquistati 37 oggi SGM ha scelto la piattafor- ma XIV proprio per le sue carat- informativo puntando elettrodomestici al minuto. teristiche di scalabilità dinamica, su scalabilità e auto riparazione in caso di gua- L’esigenza azzeramento dei Oggi SGM vuole essere un’a- sto tecnico e grandi prestazioni ottimali, tutti requisiti che riduco- fermi macchina zienda multicanale totalmen- no la complessità gestionale tipi- te integrata: non deve esser- camente correlata agli ambienti S GM è per dimensioni e fat- turato il più grande asso- ciato al Gruppo Expert in Italia ci separazione tra il negozio ed il web, tra clienti della di- stribuzione e clienti del det- a rapida crescita. L’architettura è anche concepita per ottimizzare in maniera automatica l’utilizzo ed opera nel mercato dell’e- taglio che, magari, hanno delle risorse di tutti i componenti lettronica di consumo con il solo un contatto attraverso il all’interno del sistema, permet- marchio “MarcoPolo Expert” . call center. tendo così una semplificazione Lo confermano alcuni numeri delle attività di gestione e con- chiave: 68 megastore di pro- Per raggiungere questo obiet- figurazione nonché un conside- prietà, 5 negozi in franchising, tivo SGM ha avviato una serie revole miglioramento delle pre- 700 clienti distributori, oltre 2 di progetti che puntano es- stazioni e della disponibilità di milioni di carte fedeltà, 1.700 senzialmente su cinque fattori informazioni. dipendenti. chiave: un’efficace comunica- zione interna, semplice e bi- L’architettura software è af- I valori dell’azienda sono ri- direzionale; un nuovo format facciata sul DB2 e le soluzioni masti invariati nel tempo e ne commerciale; la logistica, che WebSphere in ambito Web e hanno guidato l’evoluzione mette a disposizione di tutti i middleware aiutano la pubbli- e la crescita: attenzione alla punti di vendita un magazzino cazione e l’integrazione dei dati. persona, qualunque sia il suo virtuale che è la somma del La soluzione IBM DataStage ha ruolo (cliente, dipendente o magazzino centrale di Forlì e di trovato un’ottima collaborazio- fornitore); centralità del clien- tutti i prodotti disponibili pres- ne con la sottostante piattafor- te; meritocrazia sia all’interno so i punti vendita; un progetto ma XIV che ne aiuta la velocità dell’organizzazione sia verso di espansione in franchising di spostamento del dato. 17
  • 18. In SGM il sistema informati- ter contare su un’infrastruttura guentemente lo deve essere vo riveste un ruolo strategi- tecnologica in grado di evolve- anche per chi, operando sulle co, per rispondere in maniera re in maniera dinamica rispetto tecnologie, ne deve fornire la puntuale alla domanda della alle esigenze del business, che soluzione tecnica in tempi ra- clientela e per anticiparne le consentisse di accedere velo- pidi. esigenze. L’azienda si trova a cemente ai dati a seconda delle dover gestire grandi quanti- necessità di ogni specifico mo- La piattaforma XIV è stata la ri- tà di dati rilevanti e continua- mento. sposta completa alle richieste mente freschi provenienti da di SGM in ambito storage. Non canali distributivi diversi, senza Un’implementazione solo. L’installazione e la mes- poter dedicare tempo alle ma- rapida ed efficiente sa in produzione del nuovo nutenzioni e agli spostamenti. Se la tecnologia deve essere sistema sono state realizzate La decisione, inevitabile, di rin- un abilitatore del business, è in tempi estremamente brevi, novare le architetture esistenti necessario che sia utilizzabile con un impiego ridotto di ri- ha fatto perno sull’esigenza pri- facilmente e deve consentire sorse umane, senza alcun im- maria della scalabilità, ma an- rapidamente l’analisi del dato patto sulle attività del gruppo, che sulla possibilità di azzerare e dell’informazione. La sem- facendo sì che un importante i fermi macchina e consentire plicità d’uso deve essere vista cambio di tecnologia fosse re- rapide rivisitazioni d’uso. In so- prioritariamente orientata al alizzata con un’azione traspa- stanza, l’IT di SGM doveva po- utente del sistema ma conse- rente all’utente finale. 18
  • 19. CONSOLIDAMENTO E SICUREZZA IN CASA TREVALLI COOPERLAT T revalli Cooperlat è nata nel 1982 su iniziati- va della Confcooperative Marche tra nove cooperative agricole e ha seguito negli anni un Dal punto di vista dello storage, ora un unico sistema IBM Storwize V7000 contiene sia i vo- lumi open che i volumi iSeries con disponibilità percorso di crescita continua fatto di nuove ac- di 32,5 Tb su dischi SAS 2 e 2,7 Tb su SSD con quisizioni, tanto da diventare oggi una grande attiva funzionalità Easy Tier. IBM SAN Volume realtà agroalimentare che raggruppa undici coo- Controller (SVC) si occupa della virtualizzazione perative agricole e opera in nove regioni italiane. dello storage, integrando le funzionalità di thin Ne fanno parte oltre mille allevatori, mentre il fat- provisioning e flash copy, la prima per avere la turato supera i 220 milioni di euro. possibilità di assegnare anche grandi volumi a macchine di test andando oltre le capacità reali All’IT di Trevalli Cooperlat viene richiesto in assegnate e la seconda per una nuova politica di generale un servizio che possa gestire veloce- backup, che permetta di minimizzare l’indispo- mente i cambiamenti strutturali e logistici che nibilità dei sistemi per queste funzioni. l’azienda persegue per il proprio business in ter- mini di accorpamenti, acquisizioni, dislocazioni, La revisione delle politiche di backup sfrutta le razionalizzazioni. Occorre, inoltre, far fronte alla potenzialità di IBM Tivoli Storage Manager per crescente informatizzazione dei reparti produtti- poter gestire direttamente gli snapshot dell’am- vi con sistemi sicuri e sempre accessibili, gover- biente VMware per il mondo open. e la flashcopy nare i costi di gestione del data center, avere a di SAN Volume Controller per il mondo iSeries. disposizione strumenti per la tutela dell’integrità L’infrastruttura di backup ha uno storage pool a delle informazioni, per la continua disponibilità disco di 20Tb su un sistema IBM DS3500, 2 tape delle informazioni per le strutture autorizzate e IBM TS3200 rispettivamente uno per il mondo per la costante valutazione delle possibili debo- open con 4 drive e l’altro per i sistemi iseries con lezze del sistema informativo aziendale. 2 drive, connessione in fibra 4GB con un lama IBM HS22 che funge da server Tivoli. Questi sono gli elementi che hanno convinto il management di Trevalli Cooperlat a ristruttura- Il nuovo data center ha portato a significativi ri- re la propria infrastruttura informatica, in modo sparmi energetici, con una riduzione dei consu- tale da renderla flessibile e pronta a rispondere mi di circa il 33%. velocemente ai cambiamenti, aperta alle nuove tecnologie e scalabile velocemente in termini di processore, memoria e disco e performance. Dopo un iniziale assessment infrastrutturale af- fidato a IBM, la soluzione progettuale scelta da Trevalli Cooperlat, fornita e realizzata con il sup- porto del business partner EUROLAB, prevede l’utilizzo di soluzioni tecnologiche innovative, che spaziano dal consolidamento di tutti i ses- santa server fisici Windows/Linux in ambiente VMware su un IBM BladeCenter H con 2 lame HX5 a quello dei tre sistemi iSeries per SAP at- traverso l’inserimento, nello stesso BladeCenter H, di una lama POWER7 PS702 a 6 core. 19
  • 20. Se desiderate maggiori informazioni o approfondimenti, visitate i seguenti indirizzi: www.ibm.com/systems/it/storage/ http://www.ibm.com/systems/storage/index.html IBM e il logo IBM, sono marchi registrati di International Business Machines Corporation in diversi Paesi del mondo. La lista aggiornata dei marchi registrati di IBM è disponibile sul sito www.ibm.com/legal/copytrade.shtml, alla voce “Copyright and trademark information”. Intel, il logo Intel, Intel Inside e Intel Xeon sono marchi registrati di Intel Corporation o delle sue filiali negli Stati Uniti e/o in altri Paesi. Linux è un marchio registrato di Linus Torvalds negli Stati Uniti e/o in altri Paesi. Altre denominazioni ivi citate possono essere marchi registrati dei rispettivi titolari. Questa pubblicazione è fornita solo a titolo informativo. Le informazioni sono soggette a modifiche senza preavviso. Per le informazioni più aggiornate sui prodotti e sui servizi IBM visitate la home page di IBM Italia. © Copyright IBM Corporation 2012. Tutti i diritti riservati. Efficienza e ottimizzazione diventano native nello storage IBM. La fornitura editoriale di IBM è indipendente dall’analisi di Gartner. Tutta la ricerca Gartner è protetta da © 2012 di Gartner, Inc. Tutti i diritti riservati. Tutto il materiale Gartner è utilizzato con il consenso di Gartner. L’uso o la pubblicazione della ricerca Gartner non indica l’approvazione da parte di Gartner dei prodotti e/o delle strategie di IBM. La riproduzione o la distribuzione di questa pubbli- cazione in qualsiasi forma, senza previo consenso scritto, è vietata. Le informazioni contenute in questo documento sono state ottenute da fonti ritenute attendibili. Gartner non fornisce alcuna garanzia sull’accuratezza, la completezza o l’adeguatezza di tali informazioni. Gartner declina ogni responsabilità in caso di errori, omissioni o inadeguatezza delle informazioni qui contenute o delle relative interpretazioni. Le opinioni qui espresse sono soggette a modifiche senza preavviso. Sebbene la ricerca Gartner possa prendere in esame aspetti legali correlati, Gartner non fornisce consulenza o servizi di natura legale e la sua ricerca non deve essere interpretata come tale. Gartner è una società pubblica e tra i suoi azionisti possono figurare aziende e finanziatori con interessi economici nelle entità di cui si occupa la ricerca Gartner. Del consiglio di amministrazione Gartner possono far parte alcuni senior manager di queste aziende o di questi fondi. La ricerca realizzata da Gartner è indipendente dall’organizzazione di ricerca e non subisce influenze né pressioni da parte delle aziende, dei finanziatori o dei loro responsabili. Per ulteriori informazioni sull’indipendenza e l’integrità della ricerca Gartner, consultare “Gui- ding Principles on Independence and Objectivity” (Principi guida di indipendenza e obiettività) sul sito Web http://www.gartner.com/technology/about/ ombudsman/omb_guide2.jsp. 20