2. NELL’EFFICIENZA LA CHIAVE
PER GESTIRE I DATI
Crescono di pari passo le fonti e la quantità di informazioni da analizzare
e avere a disposizione. Di converso, stagnano o si riducono i budget a
disposizione dell’IT. La quadratura del cerchio si trova nell’adozione di uno
storage capace di rendere disponibile ciò che serve in modo autonomo e
dinamico.
P er chi si occupa di storage, la sfida di questo
periodo congiunturale appare legata soprat-
tutto alla necessità di gestire e archiviare quanti-
tà crescenti di dati ma allo stesso tempo, erogare
servizi su standard qualitativi più elevati e tenere
i costi sotto controllo.
Il punto di partenza di ogni riflessione rimanda
inevitabilmente al concetto di Big Data, ovvero
alla moltiplicazione senza sosta di dati da elabo-
rare, che arrivano dalle fonti più disparate. IBM
stima che il 90% dei dati oggi in circolazione sia-
no stati creati solo negli ultimi due anni.
Mentre le fonti di divulgazione e circolazione resto su sistemi più economici. Più questi pro-
delle informazioni continuano ad aumentare, il cessi vengono automatizzati e maggiore è l’effi-
budget per l’IT in generale e lo storage di conse- cienza che si ottiene. Per non continuare ad ag-
guenza non seguono certo lo stesso andamento. giungere capacità, inoltre, appare opportuno far
leva sulla virtualizzazione e il cloud, ma anche
Inevitabilmente, dunque, il modo per far fronte su tecnologie di compressione, deduplica, thin
alle necessità del periodo passa per la ricerca provisioning e thin replication.
di efficienza nell’infrastruttura. D’altra parte,
le stime dicono che ancora oggi l’utilizzo della I recentissimi annunci, che puntano a realizzare
capacità a disposizione si trova mediamente al una infrastruttura storage di nuova generazione,
di sotto del 50%, soprattutto a causa dell’imple- integrano tutti questi aspetti, confermando il
mentazione, sedimentata negli anni, di soluzioni concetto di disponibilità “by design” che già
poco flessibili. contraddistingue la gamma di server PureSy-
stems. La possibilità di preservare gli investi-
Nella visione olistica di IBM, l’efficienza dello menti già effettuati, facendoli però convogliare
storage si realizza assommando diversi elemen- in una logica votata alla ricerca costante dell’ef-
ti. I dati devono trovarsi nel posto più indicato ficienza, in combinazione con la presenza nativa
rispetto al loro livello di criticità o consultazio- di elementi di automazione e virtualizzazione,
ne. Sui dispositivi ad alte prestazioni, certamen- consente alle aziende di essere già pronte ad af-
te più costosi, è opportuno far risiedere solo ciò frontare anche le sfide che il mercato proporrà
che riveste maggiore importanza, spostando il negli anni a venire.
2
3. Dagli archivi Gartner:
INFRASTRUTTURA
INFORMATIVA E BIG DATA
PANORAMICA SULLE
PRINCIPALI INIZIATIVE
Il concetto di infrastruttura
informativa deve evolversi
per consentire alle imprese
di gestire le informazioni
in quanto prezioso asset
aziendale, alla luce dei nuovi
modelli di distribuzione dei
dati e delle sfide imposte dalla
crescita esplosiva di questi
ultimi. Il presente documento
descrive i passi critici e gli
ostacoli da affrontare per
superare questa sfida.
ANALISI mail, documenti, audio e video. Per adottare un
L’infrastruttura informativa è costituita da un in- approccio strategico alla gestione delle informa-
sieme di funzionalità tecnologiche per suppor- zioni che consideri i dati come asset da sfruttare
tare obiettivi di gestione delle informazioni. Con per ottenere un vantaggio competitivo, è neces-
il termine “Big Data” si fa riferimento a informa- saria un’infrastruttura informativa ben organiz-
zioni caratterizzate da dimensioni estremamen- zata, agile ed efficace. Le tradizionali tecnologie
te elevate, eterogeneità, complessità ed esigen- di gestione delle informazioni non sono in grado
ze di elaborazione rapida. di far fronte all’esplosivo volume di dati etero-
genei presenti in molte aziende. Il grande valo-
L’approssimarsi di sfide incombenti è indicato re e le potenziali responsabilità che si celano in
dalle previsioni secondo le quali entro il 2015 i questi dati sta suscitando un nuovo interesse
dispositivi intelligenti nel mondo saranno 200 verso l’infrastruttura informativa. Le nuove ten-
miliardi ed entro il 2020 il numero di dati invia- denze in tale infrastruttura cambieranno il modo
ti via Web ogni giorno sarà pari a 275 esabyte, di concentrare e distribuire tecnologie e com-
nonché dal crescente desiderio di utilizzare e- petenze di gestione delle informazioni, con l’o-
3
4. biettivo di migliorare radicalmente l’efficacia in neità, complessità e velocità contribuiscono
termini di costi, agilità, trasparenza di gestione e alla nascita di sfide impegnative in termini di
uso degli asset informativi. gestione delle informazioni.
• Verificare che vi siano competenze, ruoli e
Fattori d’importanza dell’infrastruttura strutture organizzative adeguati per sfrutta-
informativa e dei progetti basati sui Big re queste tendenze chiave. Infrastruttura in-
Data: formativa e progetti basati sui Big Data non
sono da ricondurre solo alla tecnologia, poi-
A) Per i CIO ché un approccio esclusivamente tecnologi-
co non garantisce alcun successo.
I “Big Data” rappresentano per i CIO una stra-
ordinaria opportunità per aggiungere valore GESTIONE DELL’INIZIATIVA
all’attività aziendale attraverso il recupero di DI INFRASTRUTTURA INFORMATIVA
dati analitici e l’identificazione di modelli dalla E DEI PROGETTI BASATI SUI BIG
grande quantità di informazioni disponibili. Per DATA MEDIANTE QUESTO
ottenere questo vantaggio, i CIO devono: APPROCCIO STRUTTURATO
• Collaborare con i leader aziendali per iden-
tificare le opportunità rilevanti e sviluppa- Strategia e pianificazione: redigere una bozza di
re una visione condivisa sulle informazioni atto costitutivo in allineamento con gli obiettivi
dell’impresa, tenendo conto delle fonti di in- aziendali con lo scopo di ottenere un consenso
formazioni più recenti quali social network e sulla visione e sul compito alla base del progetto.
tecnologie operative. Delineare l’ambito del progetto e definirne risor-
• Indirizzare le proprie organizzazioni verso la se, budget e sistemi di governance. Integrare tut-
modernizzazione dell’infrastruttura informati- to questo nei piani IT strategici e aziendali.
va e l’allineamento di tecnologie e competen-
ze di gestione delle informazioni per ottenere Creazione di una soluzione: definire l’architettura,
una base coerente e agile per l’accesso, la di- la tecnologia e gli standard del progetto. Model-
stribuzione e il controllo delle informazioni. lare i requisiti aziendali e descrivere nel dettaglio
• Gestire l’infrastruttura informativa e i pro- le specifiche per la distribuzione della soluzione.
getti basati sui Big Data come competenze Suggerire procedure per l’implementazione del
e programmi continui invece che come pro- progetto. Definire i dettagli del processo e i criteri
getti discreti a breve termine. I progetti basa- di calcolo dei risultati. Comunicare il piano.
ti sui Big Data non possono essere conside-
rati come avulsi dal lavoro di gestione delle Selezione della soluzione: impostare requisiti ed
informazioni (e dell’infrastruttura correlata) emettere RFP. Analizzare le informazioni del mer-
già in corso nell’azienda. cato. Valutare le opzioni di fornitori e provider di
servizi. Scegliere tecnologie e fornitori/provider
B) Per i Responsabili IT di servizi. Negoziare accordi sui livelli di servizio
e contratti.
La modernizzazione dell’infrastruttura informa-
tiva e la preparazione a gestire progetti basati Implementazione: fornire personale e gestirne
sui Big Data richiederanno ai responsabili IT di: l’implementazione. Coordinare la distribuzione
• Valutare lacune e sovrapposizioni nelle tec- della soluzione. Creare l’ambiente di sviluppo e
nologie di gestione delle informazioni e svi- eseguire test. Richiedere il feedback degli utenti.
luppare un piano di razionalizzazione o di in- Monitorare i rischi.
cremento delle capacità in sede.
• Fissare gli obiettivi di una visione strategica Azione ed evoluzione: realizzare e gestire l’im-
per l’infrastruttura informativa attraverso uno plementazione. Effettuare analisi sulla base
schema di funzionalità IT. I responsabili IT po- di feedback, rischi e cambiamenti dei requisiti
tranno quindi realizzare una roadmap mirata aziendali. Misurare le prestazioni. Monitorarne
a sostenere le esigenze informative in modo l’uso e la conformità. Sviluppare competenze e
efficiente e indipendente dalle applicazioni. definire le prassi migliori per gli utenti. Perfezio-
• Comprendere che con il termine “Big Data” nare i processi di governance.
si fa riferimento a molto di più che a volumi
di dati poiché dimensioni elevate, eteroge- Fonte Gartner: Ricerca G00214426, Ted Friedman, 22 July 2011
4
5. COME STA EVOLVENDO
IL CICLO DI VITA DEI DATI
Secondo Giovanni di quanto già a disposizione e
la definizione di percorsi che
Calvio, manager of tengano conto di quanto serve
Storage Platform di oggi e, nei limiti del possibile,
IBM Italia, le aziende anche di quanto potrà accade-
re domani. In sintesi un’infra-
oggi hanno la struttura che possa evolvere
necessità stringente realmente in funzione delle
di poter elaborare stesse esigenze. Della realtà
presente sul mercato italiano
e analizzare e dell’evoluzione tecnologica
rapidamente in corso, abbiamo parlato con
le informazioni Giovanni Calvio.
necessarie per Quanto vale ancora oggi
prendere decisioni l’assioma “storage = capa-
cità” e nient’altro? In qua-
strategiche. Uno le misura nella realtà delle
e la qualità dei dati presenti
e, soprattutto, occorre capi-
storage razionalizzato aziende, soprattutto italia- re quali sono le nuove moda-
ed efficiente deve ne, la risposta all’aumento lità che gli utenti usano per
progressivo dei dati da
supportare questa gestire si concretizza sem-
accedere alle informazioni. I
driver di business, oggi, stan-
esigenza primaria. plicemente nell’aggiunta no spingendo in tre direzioni:
di nuovi dispositivi? potenziamento dell’agilità dei
L a gestione del ciclo di vita
delle informazioni è costru-
ita ancora intorno a miti, come
Non solo in Italia ma un po’ in
tutto il mondo, spesso si con-
sistemi, miglioramento della
capacità di prendere decisioni
in azienda e semplificazione
la perdita progressiva di valore tinua a pensare che l’informa- delle operazioni ottimizzando
nel tempo dei dati e la prevedi- zione perda valore nel tempo i workload presenti nel data
bilità delle modalità di accesso e soprattutto che le modalità center. Rendere più efficiente
da parte degli utenti. La mag- utilizzate da ciascun utente per lo storage significa anche es-
gior parte delle infrastrutture accedere all’informazione sia- sere pronti a soddisfare i futuri
storage sono costruite intorno no sempre prevedibili. Questo bisogni, che crescono nel tem-
a queste convinzioni, che in re- presupposto porta alla convin- po in maniera imprevedibile.
altà oggi valgono assai poco. zione che periodicamente ci
Il successo di un business si sia bisogno di nuova capacità Quali sono, rispetto allo
basa sempre di più sulla capa- all’interno di un data center. scenario descritto, le
cità di elaborare rapidamente i Invece, il futuro richiede un esigenze o le evoluzioni
dati, analizzarli, renderli dispo- approccio diverso allo storage. che accomunano le grandi
nibili come e quando servono. Sempre più, infatti, sono le ne- aziende e quelle medio-
E in questo contesto è impor- cessità del business a guidare piccole e dove invece
tante avere una corretta stra- il flusso delle informazioni e da si evidenziano ancora
tegia in campo tecnologico, qui nascono le opportunità le- importanti differenze?
che non si limiti ad accumulare gate allo smarter computing, al
dispositivi e capacità nei data cloud e alla business analytics. Ci sono oggi più analogie che
center, ma punti sulla raziona- Abbiamo sempre più bisogno elementi distintivi. Le esigen-
lizzazione, l’utilizzo ottimizzato di conoscere meglio il valore ze e le sfide sono abbastanza
5
6. I passi da seguire per ottimizzare i carichi di lavoro
Fonte: IBM
simili anche se chiaramente utilizzando al meglio quanto è re Optimization, emerge che
nei grandi data center ci sono già presente nei data center, in media il 50% della capacità
maggiori risorse a disposizio- evitando in questo modo di storage presente in un data-
ne e un budget in valore asso- acquisire capacità in eccesso. center è inutilizzato.
luto più importante. Tuttavia, Quando si realizzano progetti
in questo momento è dalla fa- di consolidamento, general- E allora da dove si può
scia medio-bassa del mercato mente si affronta anche il tema partire per avere uno
che arriva una maggiore spin- della data protection e data re- storage più efficiente?
ta all’innovazione. Nelle realtà tention, utilizzando tecniche
più piccole le strutture sono automatiche di ottimizzazione Sicuramente dal consolida-
più snelle e la reattività è più della capacità. mento, anche se un primo vero
immediata. Di conseguenza, i passo in direzione dell’efficien-
budget limitati portano a indi- Quanto sono consapevoli za si compie con il tiering del
viduare nuovi approcci e nuo- le imprese di possedere dato, rendendolo automatico
ve soluzioni. capacità inutilizzata e di o utilizzandolo in modo nativo
poter recuperare spazio all’interno dei sistemi. In que-
Quali sono, in ambito senza dover aggiungere sto modo, si migliora l’efficien-
storage, i fattori di nuovo storage? za su ogni singolo carico appli-
maggior interesse per le cativo, evitando investimenti
imprese? Per essere sinceri, ben poche onerosi, come nel caso dell’ac-
aziende sono in grado di valu- quisto di dischi allo stato solido
Certamente sono molto senti- tare correttamente i loro livelli per il solo obiettivo di aumen-
ti i temi del consolidamento e di utilizzo delle risorse storage. tare le performance. A questo
del miglioramento delle per- Per IBM invece si tratta di un si può aggiungere tutto quanto
formance, soprattutto in dire- punto focale e la nostra offerta concerne la compressione del
zione della velocità di accesso va proprio in questa direzione. dato, che può avvenire a mon-
ai dati. Sta emergendo grande Da circa un paio di anni, IBM te dello storage primario e non
interesse per le nuove modali- offre ai propri clienti la possi- ha impatti sulle applicazioni o
tà di archiviazione dei dati, in bilità di effettuare un’analisi sui carichi di lavoro che stanno
particolare per le tecnologie di precisa del livello di efficienza funzionando. Si prepara così il
deduplica. La tendenza è quel- del proprio storage in modalità terreno per la virtualizzazione,
la di virtualizzare l’infrastrut- completamente gratuita. Esa- un passaggio che prima o poi
tura storage, cercando di pro- minando i risultati degli studi, occorre affrontare, soprattutto
teggere gli investimenti fatti e chiamati Storage Infrastructu- per chi pensa a un orizzonte fu-
6
7. Cloud e virtualizzazione si integrano nell’infrastruttura storage
Fonte: IBM
turo orientato al cloud. Due anni immediate e legate alla qualità poi declinarle per le esigenze
fa di Big Data non si parlava af- e al valore del dato e i budget delle piccole e medie imprese...
fatto e oggi, invece, è un tema andranno mantenuti leggeri. In La nostra strategia per lo sto-
all’ordine del giorno. Ma fra altri questo contesto IBM si sente in rage è chiara e coerente e la
due o tre anni cosa succederà? grado di dare risposte concrete ricchezza della nostra offerta
Per questo è importante costru- nell’interesse del business delle può rispondere ad ogni tipo di
ire un’infrastruttura che serva imprese: parliamo di un’azien- esigenza, in funzione dei diver-
a proteggere gli investimenti da che vanta oltre cent’anni di si budget. I dati ci confermano
fatti anche in funzione di future esperienza nella soluzione di che il mercato ha compreso il
evoluzioni oggi sconosciute. Le problemi complessi, ha sempre valore delle nostre soluzioni e
richieste degli utenti continue- investito considerevoli risorse apprezza la nostra coerenza e i
ranno ad aumentare e saranno economiche nella ricerca & svi- risultati che abbiamo ottenuto
sempre diverse, le decisioni di luppo, ha creato soluzioni avan- sul mercato italiano sono il no-
business saranno sempre più zate per il mondo enterprise per stro fiore all’occhiello.
Gli effetti dell’evoluzione verso Big Data e Business Analytics
Fonte: IBM
7
8. L’ORGANIZZAZIONE
DELLO STORAGE CONTA
PIÙ DELLA CAPACITÀ
Per molto tempo, alla crescita dei dati in azienda è stata associata la progressiva
aggiunta di nuovi dispositivi di memorizzazione. L’esplosione degli ultimi anni sta
rendendo sempre più importante la definizione di una strategia basata sull’analisi
di quanto circola in azienda e una gestione maggiormente proattiva.
I crescenti volumi di informa-
zioni da gestire in azienda,
gli obblighi collegati ai temi
indispensabili per le aziende
che vogliono stare al passo,
mentre i dati da trattare e ana-
cerca IBM, in particolare con la
memoria Racetrack, che com-
bina i benefici degli hard drive
della governance e complian- lizzare continuano a crescere. magnetici con quelli a stato
ce normativa e la ridondanza In base a un’indagine condot- solido, per arrivare a poter ela-
dei dati sono fattori che stanno ta da IBM nel 2011, il 57% dei borare imponenti quantità di
spingendo i responsabili dei si- decision maker dell’IT hanno dati memorizzati in meno di un
stemi informativi alla ricerca di ammesso che la propria orga- miliardesimo di secondo.
soluzioni storage che, nell’ac- nizzazione ha bisogno di un
cezione cara a IBM, potremmo nuovo approccio allo storage, I dati collegati
definire “smart” ovvero intelli-
, utile per gestire la crescita fu- ai carichi di lavoro
genti, efficienti e flessibili allo tura. Big data, tuttavia, non signifi-
stesso tempo. ca automaticamente “bigger
La materia è peraltro com- storage”. Non ci può e non ci
Non solo i CIO, ma anche i re- plessa e può essere esamina- deve essere una correlazione
sponsabili di linee di business ta da differenti punti di vista. diretta fra la quantità di dati
o il top management hanno Storicamente, si è portati a da gestire e i Terabyte a dispo-
compreso come lo storage e la considerare il problema es- sizione in azienda, anche se il
protezione dei dati siano com- senzialmente dal punto di vista costo dell’hardware è diminui-
ponenti critiche di un’evolu- del supporto fisico. È da oltre to negli anni. Questo ha spinto
zione tecnologica sempre più vent’anni che le nuove quanti- molte realtà ad ampliare sem-
connessa alla gestione dei big tà di dati creati sono utilizzati plicemente la capacità, una
data, al cloud computing e alle e veicolati in formato digitale. I scelta certamente più comoda
applicazioni analitiche. Questi concetti di “disco” e “storage” rispetto a una seria analisi dei
elementi fanno anche parte del sono stati per lungo tempo dati immagazzinati, quali di
trend verso “l’internet delle considerati quasi sinonimi ed è questi sono critici e per quali
cose”, ovvero il complesso di sulla capacità che si è concen- motivi, quali vadano conser-
informazioni che risiede in un trata a lungo la ricerca. Dagli vati, dove e per quanto tempo.
crescente numero di sensori obsoleti floppy e hard disk del-
e microchip integrati negli og- le prime generazioni, si sono Proprio l’esplosione dei dati
getti della nostra vita quotidia- succedute nel tempo nuove alla quale stiamo assistendo,
na. L’obiettivo è rendere tutte tecnologie concentrate sulla invece, dovrebbe indurre le
queste cose interconnesse, in densità dei supporti e l’acces- aziende a definire una strate-
modo da ottenere un livello so ai dati in essi contenuti. gia storage basata sulla cura
più alto di “intelligenza”. Ancora oggi una consistente dei dati e la loro gestione
attenzione è dedicata a questi proattiva lungo tutto il ciclo
L’efficienza dello storage e la aspetti, come dimostrano svi- di vita. La selezione, la valu-
protezione dei dati critici sono luppi recenti proprio della ri- tazione e l’organizzazione dei
8
9. dati sono elementi-chiave del costo più elevato, lasciando su modo il più possibile auto-
lavoro necessario per rendere supporti come i nastri i dati da matizzato. Sfruttare al meglio
i dati stessi accessibili e inter- conservare per motivi di leg- i dispositivi a bassa velocità
pretabili dalle persone giuste ge o di opportunità, ma poco abbassa i costi di utilizzo e di
in azienda, in base a ruoli e pri- critici per il business ordinario consumo energetico, miglio-
vilegi assegnati. dell’azienda. Laddove possibi- rando l’efficienza complessiva
le, poi, occorre creare un mag- dell’infrastruttura. Allo stesso
Il tema dei Big Data rappresen- gior livello di interazione fra modo, la deduplica può essere
ta al momento l’elefante nel- le informazioni, consolidando ormai considerata una modali-
la stanza e le proiezioni degli silos preesistenti ma senza in- tà standardizzata per ridurre la
analisti parlano di un aumento cidere necessariamente sulla quantità di storage necessaria
dell’800% nei prossimi cinque capacità a disposizione, quindi per la gestione di grandi set di
anni. Per affrontare corretta- attraverso processi di virtualiz- dati, al pari della compressio-
mente la sfida, l’IT deve farsi zazione o fruizione in modalità ne, ben sapendo che la prima
saggia e attivare una strategia cloud. si adatta in modo particolare ai
a livelli, necessaria per rendere file di testo, mentre la seconda
le informazioni più importanti L’utilizzo di una logica a livelli può essere impiegata per do-
più accessibili delle altre. I dati è critica per cercare di ridurre cumenti audio e video.
devono essere pertanto collo- i costi. Questo significa non
cati nel posto giusto e collega- solo collocare, per esempio, Il disegno dello storage come
ti ai carichi di lavoro essenziali i dati fondamentali su dispo- “sistema efficiente”, attraver-
per il business aziendale. Quan- sitivi a stato solido e quelli so l’ottimizzazione dell’infra-
to realmente utile e a maggiore non strutturati usati una volta struttura, l’automazione dei
tasso di fruizione va collocato sola su nastri, ma anche fare processi e il corretto calcolo
su dispositivi a tecnologia più in modo che gli spostamen- del TCO rappresenta oggi uno
avanzata, per garantire presta- ti verso l’alto o il basso della dei principali fattori di vantag-
zioni ed efficienza, anche se a piramide possa avvenire in gio competitivo.
9
10. LA VISIONE DI IBM
SI PROIETTA NEL FUTURO
Messo a punto un concetto di infrastruttura storage che si basa
sulle evoluzioni portate avanti negli ultimi anni, ma è già pronta ad
accogliere le sfide che arriveranno in futuro. La chiave di volta sta nella
disponibilità nativa di elementi come il right tiering, la virtualizzazione
e tecniche evolute di compressione in tempo reale.
I l mutevole mondo nel quale viviamo rende at-
tuali in un dato momento problematiche che
solo qualche tempo prima non venivano nem-
Su queste basi, IBM ha costruito la propria visio-
ne orientata a un’infrastruttura storage di nuova
generazione, un concetto, prima ancora che un
meno prese in considerazione. Il fenomeno della insieme di tecnologie, con focalizzazione sulle
moltiplicazione dei dati da gestire per un’azien- aree di potenziale riduzione dei costi e la predi-
da non è nuovo di per sé, ma temi come i Big sposizione “nativa” agli sviluppi che arriveranno
Data o gli strumenti di analisi evoluta non erano anche a medio e lungo termine. L’ottimizzazione
due anni fa al centro dell’attenzione dei manager dei carichi di lavoro esistenti, il miglioramento
quanto lo sono oggi. Ed è possibile, se non pro- dell’agilità che passa attraverso l’adozione del
babile, che fra due o tre anni qualche altro tema o cloud computing e l’integrazione fra Business
stringente esigenza avrà spostato altrove il cen- Analytics e Big Data sono i business driver che
tro dell’interesse. oggi maggiormente coinvolgono lo storage.
Qualcosa di nuovo arriverà di certo a medio ter-
Il tema della gestione dei dati è fra quelli che me- mine. Come prepararsi a questo percorso?
glio si adattano a questo genere di riflessioni. La
crescita dei volumi è un dato di fatto ampiamen- La risposta di IBM sta in una proposta infra-
te documentato: il clima competitivo e le diffi- strutturale nella quale l’efficienza dello storage
coltà congiunturali hanno elevato il valore delle è integrata a livello di progettazione, l’ottimiz-
informazioni e le aspettative di manager e utenti zazione avviene in modo automatizzato, la vir-
sulla capacità dell’IT di saper fornire quanto ser- tualizzazione è presente nativamente e tutti i
ve per fare analisi e prendere decisioni in modo processi sono guidati da policy definite e stret-
rapido ed efficace. Per chi governa i sistemi in- tamente legate alle applicazioni. In questo modo
formativi, con budget essenzialmente piatti, la si ottiene una riduzione dello spazio fisico occu-
necessità di gestire dati in continua crescita si pato fino all’80% e della complessità fino al 30%,
scontra con una complessità infrastrutturale un aumento dell’utilizzo di quanto esistente fino
dettata dalla presenza di architetture poco fles- al 30%, performance applicative triplicate e una
sibili ereditate dal passato e dall’incremento del- diminuzione dei costi fino al 50%.
la complessità derivata dallo sviluppo della vir-
tualizzazione e dell’interconnessione di sistemi L’ottimizzazione dei carichi di lavoro esistenti può
e dispositivi di varia natura. essere certamente un buon punto di partenza.
Anche IBM ha preso da qui le mosse per pro-
Un’evoluzione basata sui business driver porre già oggi alle aziende tecnologie e soluzioni
Un approccio solo reattivo a queste sfide porta utili per aumentare l’efficienza dello storage. La
inevitabilmente a una pura crescita dei costi, in gestione dinamica e distribuita multilivello (con
particolare dello storage rispetto a quelli IT ge- IBM Easy Tier e Active Cloud Engine) e le tecnolo-
nerali. Individuare le inefficienze e ottimizzare i gie di compressione, deduplica, thin provisioning
processi può essere un buon punto di partenza, e thin replication consentono di muovere i dati
ma le esigenze presenti e future richiedono un sui dispositivi più adatti in base alle esigenze di
nuovo approccio allo storage, fatto di intelligen- utilizzo e consultazione, così come di ridurre lo
za, efficienza e automazione. spazio fisico occupato.
10
11. Gli ultimi aggiornamenti di gamma
La nuova visione IBM per una infrastruttura storage di nuova generazione è corroborata da numerosi
aggiornamenti nella gamma di prodotti.
I prodotti della gamma IBM Storwize V7000 integrano la tecnologia Real-time Compression, che
consente di utilizzare la compressione anche per i dati di produzione, a differenza di quanto accade
nei prodotti concorrenti, che ne consentono l’uso solo per i dati a bassa attività. Sono stati aggiunti,
inoltre, il supporto di Fibre Channel over Ethernet e del clustering a quattro vie.
Le stesse migliorie sono state apportate alla versione 6.4 di SAN Volume Controller, che in più ag-
giunge la migrazione trasparente dei volumi virtuali fra nodi SVC, in modo da massimizzare la fles-
sibilità delle configurazioni.
Tivoli Storage Productivity Center, invece, nella versione 5.1 offre una nuova interfaccia integrata
Web-based, il supporto per la gestione basata su cloud dello storage, nonché del reporting e delle
capacità analitiche basati su Cognos. A ciò si aggiunge la possibilità per le applicazioni di rilevare
automaticamente e fare il provisioning dei file con dispositivi SONAS e Storwize V7000 Unified.
Sono stati infine migliorati i sistemi storage DS3500 e DCS3700, per aziende piccole e medie che ne-
cessitano di migliorare il tempo di backup e le prestazioni dello storage in caso di ripristino, cose che
avvengono attraverso le tecnologie Enhanced FlashCopy e Adaptive Disk Pooling. Potenziato anche
il supporto per ambienti server VMware in chiave di comunicazione fra gli host e gli array storage.
Per chi sta valutando o sperimentando il cloud anche al di fuori dell’ambiente storage, in-
computing, la virtualizzazione nativa e una ge- tegrandosi con le memorie dei server e con
stione policy-driven consentono di ottenere una l’operatività delle applicazioni di business).
maggiore automazione nell’erogazione dei ser-
vizi, il monitoraggio e l’ottimizzazione dinamica Lo storage recepisce
in tempo reale delle capacità. Discorso analogo le policy aziendali
può essere fatto per le esigenze di integrazione Le infrastrutture storage di nuova generazio-
fra Business Analytics e Big Data. ne hanno le stesse caratteristiche delle so-
luzioni IBM PureFlex System e SmartCloud,
La visione per una infrastruttura storage di nuo- in grado cioè di fornire un’ottimizzazione
va generazione di IBM guarda però anche avan- integrata end-to-end, mentre l’IBM Storage
ti, alle sfide che arriveranno nei prossimi anni, Service Catalog stabilisce il legame fra i re-
per far sì che già oggi l’infrastruttura storage sia quisiti-utente e le capacità dell’IT, aiutando
preparata ad accoglierle. L’efficienza, dunque, ad accrescere i livelli di servizi e la soddisfa-
viene realizzata già nella progettazione, attra- zione dei clienti, controllando anche i costi.
verso la presenza di caratteristiche avanzate e
preinstallate, utili per eliminare complessità e I data center, infine, lavorano in base a spe-
barriere all’ingresso. La tecnologia Real-time cifiche policy. Le performance applicative,
Compression, integrata nativamente nei sistemi la schedulazione dei backup o i requisiti di
Storwize V7000, e SAN Volume Controller sono conservazione dei dati sono personalizzati in
esempi indirizzati alla riduzione degli spazi. base alle esigenze di ogni organizzazione. Una
volta definite, le policy dovrebbero essere fa-
Lo storage del futuro, poi, dovrà anche ottimiz- cili da replicare e automatizzare. Lo storage
zarsi “da solo” in modo intelligente e automati- presente e futuro deve quindi essere policy-
co, per allinearsi alla velocità del business, au- driven, ad esempio per migrare file inattivi su
mentare il throughput delle applicazioni critiche dispositivi di livello più basso o replicare i dati
e supportare nuovi carichi, come i desktop vir- fra sistemi per velocizzare gli accessi. Tivoli
tuali, per fare un esempio. IBM integra tecnolo- Storage Productivity Center e SAN Volume
gie di auto-ottimizzazione come XIV (automazio- Controller lavorano insieme per implementa-
ne del load balancing e della qualità del servizio) re una politica di “right tiering”, che fin qui era
e Easy Tier (che andrà a estendere il supporto impossibile in un data center dinamico.
11
12. LE MOSSE PER OTTENERE
UNO STORAGE EFFICIENTE
Partendo dal concetto più esteso di smarter computing, IBM invita a
spostare il focus dalla pura memorizzazione dei dati alla capacità
di allocarli nel posto più utile per il loro reperimento usando la
virtualizzazione per migliorare la capacità di provisioning dei sistemi già
presenti nell’infrastruttura aziendale.
N ell’It dei nostri giorni,
niente appare più impor-
tante del concetto di efficienza.
Ci sono altre parole d’ordine
ricorrenti, come riduzione dei
costi, qualità del servizio, intel-
ligenza. Oppure cloud compu-
ting, virtualizzazione e conso-
lidamento, se scendiamo sul
terreno più pratico. Ma tutto
discende dalla capacità di “fare
le cose nel modo giusto” per ,
parafrasare il guru del mana-
gement Peter Drucker, ovvero
avere una visione d’assieme
delle infrastrutture da gestire e
organizzarle in modo da soddi-
sfare le richieste che vengono
dal top management di un’a-
zienda o dalle linee di business, nell’invito a spostare il focus disposizione fino al doppio ri-
cercando il miglioramento con- dalla semplice necessità di me- spetto alla norma, ottenendo
tinuo e non la semplice crescita morizzare i dati alla capacità di anche una riduzione del 38%
incontrollata delle risorse. allocarli nel posto più utile per nella capacità fisica richiesta
il loro reperimento e utilizzo, e fino all’80% delle esigenze
La trasformazione di questa recuperando spazio con una gestionali. Da questi valori, si
visione in realtà passa per IBM compressione che può avveni- può facilmente comprendere
attraverso il concetto di Smar- re anche in tempo reale e uti- come uno storage efficiente
ter Computing, che non si ap- lizzando la virtualizzazione per generi vantaggio competitivo.
plica solo allo storage, ma si migliorare la capacità di utiliz- L’obiettivo si può raggiungere
estende ad altre aree-chiave zo e provisioning dei sistemi partendo dal disegno infra-
dell’It, come l’elaborazione già presenti nell’infrastruttura strutturale, costruito su criteri
delle informazioni, il software aziendale. di ottimizzazione per singoli
applicativo e le analisi. Rende- carichi di lavoro e un TCO che
re concreto questo concetto In base ai valori medi ottenu- possa far leva sull’automazio-
implica la massima attenzione ti da analisi di mercato e da ne dei processi (tiering, provi-
su aspetti come l’automazio- studi condotti presso propri sioning), sulla virtualizzazione,
ne, l’integrazione e il cloud. clienti, IBM ha potuto stimare sull’erogazione dei servizi in
che una maggiore efficienza modalità cloud e su tecnologie
La ricerca di efficienza in am- nell’utilizzo dello storage con- evolute per la compressione e
bito storage si traduce per IBM sente di sfruttare le risorse a la deduplica dei dati.
12
13. Una completa gamma di sistemi
Le soluzioni per lo storage efficiente proposte da IBM com-
binano la tecnologia di una gamma hardware completa
(che spazia dai sistemi entry-level a quelli high-end di fa-
scia enterprise) con specifiche funzionalità per la virtualiz-
zazione, il tiering automatico e il thin provisioning, fra le
altre cose.
L’offerta di sistemi midrange si sostanzia nelle famiglie
Storwize V7000 e DS di fascia più bassa. La prima rappre-
senta gli array di riferimento per il midmarket, con capacità
da 300 GB fino a 1.4 PB (configurazioni cluster) e perfor-
mance da 8 Gbps Fibre Channel e 1 Gbps iSCSI. L’evolu-
zione più recente riguarda la combinazione fra lo storage
di tipo NAS basato su file con quello di tipo SAN basato su
blocchi. Storwize V7000 Unified ottimizza l’utilizzo della ca-
pacità a disposizione e migliora il provisioning, aggiungen-
do la presenza di una singola interfaccia-utente per l’ammi-
nistrazione dei dispositivi. I pool storage, inoltre, possono
essere condivisi fra carichi di lavoro per blocchi e per file.
Sempre orientati al mercato intermedio, le gamme
DS3000 e DS5000 sono progettate per soddisfare le esi-
genze di sistemi aperti di oggi e di domani, stabilendo
un nuovo standard per la longevità del ciclo di vita, con
schede di interfaccia host sostituibili a caldo. L’architet-
tura hardware di settima generazione, inoltre, garantisce
alte prestazioni, scalabilità multidimensionale e protezio-
ne degli investimenti.
Le famiglie DS8000 e XIV sono invece rivolte al mercato di
fascia alta. I DS8000 beneficiano da poco dell’integrazione
con la più recente evoluzione di Easy Tier a tre livelli, che
consente di avere sempre e in automatico il miglior bilanciamento di flussi e prestazioni fra i disposi-
tivi SSD (più potenti ma anche onerosi), i moduli disco di fascia enterprise e quelli nearline (a costi più
bassi) anche nella versione con crittografia integrata. I requisiti prestazionali sono soddisfatti al minor
costo possibile sempre garantendo la qualità del servizio.
La serie IBM XIV indirizza le sfide connesse allo storage su tutto lo spettro applicativo, includendo le
soluzioni di virtualizzazione, database, analytics e protezione dei dati. L’architettura GRID a massiccio
parallelismo rende XIV la piattaforma ideale per il cloud computing e gli ambienti virtualizzati.
Fra i sistemi di file storage di IBM spicca la soluzione Scale Out Network Attached Storage (SONAS),
che virtualizza e consolida file multipli in un singolo file system enterprise-wide, riducendo così il Total
Cost of Ownership e i costi di capitale, aumentando l’efficienza operativa. Al di là della scalabilità in-
trinseca della piattaforma, di recente si è aggiunta l’integrazione di Active Cloud Engine, motore di file
management basato su policy che rende efficiente la condivisione e la collaborazione tanto su scala
locale (all’interno di un’azienda) che globale (su siti multipli). In ambito Nas, si aggiungono all’offerta
anche i prodotti modulari della serie N, mentre i virtual tape TS si indirizzano alle esigenze di protezio-
ne e conservazione dei dati a basso costo.
13
14. La centralità del tiering concetto nuovissimo, ma l’e- necessario. Il motore, basato
automatico voluzione verso l’automazione su policy, è abbinato a un file
Le soluzioni per l’efficienza ne sta rapidamente allargando system che consente di ge-
dello storage messe a punto da il potenziale. Tecnicamente, la stire i dati in modo semplice
IBM si possono raggruppare in tecnologia consente di muove- e scalabile. Con Active Cloud
diverse categorie, tutte funzio- re automaticamente differenti Engine, la gestione risulta effi-
nali al disegno complessivo. È blocchi di dati attraverso i vari ciente tanto a livello locale che
importante, come abbiamo già livelli dell’architettura, in base globale. Nel primo caso, dato
sottolineato, che i dati venga- alle policy definite per ragioni un posizionamento iniziale, lo
no collocati sui dispostivi più di business o di compliance e spostamento avviene in modo
adatti in ragione del loro utiliz- studiate per ottenete la massi- trasparente fra i pool interni ed
zo e della loro criticità. Nell’i- ma ottimizzazione del provisio- esterni, mentre vengono impo-
deale piramide utilizzabile ning. IBM Easy Tier si occupa stati automaticamente backup,
come metafora dell’infrastrut- proprio di queste funzionalità restore e replica interna e/o
tura storage di un’azienda, in modo dinamico. Nata sui remota. Nel secondo caso, si
alla base troviamo le librerie dispositivi di fascia enterpri- ottiene una significativa ridu-
di nastri (fisici o virtuali) che se, la tecnologia è stata estesa zione dei costi di rete, con la
fungono da archivio per i dati anche ai prodotti midrange. La memorizzazione dei file in siti
che necessitano di essere con- possibilità di spostare auto- remoti prima dell’effettiva rice-
servati per lungo termine. Via maticamente i dati da dischi zione della richiesta (garanzia
via che si sale, troveremo hard di prestazione a dischi di ca- di alta disponibilità e accesso
disk drive di capacità e di pre- pacità, in base alle esigenze rapido), ma anche l’eliminazio-
stazioni, flash disk o dischi allo di business e ai volumi logici, ne della replica dei file nei siti
stato solido, nei quali collocare consente di arrivare a triplicare remoti.
i dati di maggior peso e impor- le prestazioni complessive pur
tanza per l’azienda. Detto che usando dischi allo stato solido Sul lato dell’ottimizzazione del-
IBM offre una gamma comple- solo nel 2% del totale. le capacità, un notevole passo
ta di dispositivi hardware che avanti è stato compiuto con la
coprono ogni elemento della Active Cloud Engine, invece, disponibilità della tecnologia
piramide (si veda box in que- è un motore che costituisce la Real Time Compression, che
ste pagine), è nelle tecnologie base dei sistemi di file stora- consente di lavorare solo sui
integrate che si possono trova- ge SONAS (Scale-Out NAS) e blocchi necessari, tipicamente
re gli elementi differenziali in consente agli utenti di gestire sui dati di primaria importanza,
termini di efficienza. elevati numeri di file in modo senza degrado di prestazioni. In
efficiente, individuando rapi- questo modo, si ottiene la pos-
Il tiering dello storage, ad damente i dati di interesse e sibilità di ospitare una volume
esempio, non è di per sé un li rende disponibili laddove è di dati fino a cinque volte supe-
riore rispetto alle soluzioni tra-
dizionali, guadagnando ulterio-
re efficienza lungo il ciclo di vita
dei dati. Agendo solo su quelli
primari, anche tutte le succes-
sive copie, backup, archiviazio-
ni, snapshot e replica saranno
compresse. L’operazione viene
eseguita alla prima memoriz-
zazione, rendendo possibile un
minor invio di dati fisici ai siste-
mi storage. Le appliance Real
Time Compression si adattano
a NAS non solo IBM (N Series),
ma anche di altri produttori e
può comprimere file e databa-
se primari fino all’80%.
14
15. IBM PORTA L’HYPERVISOR
NEL MONDO
DELLO STORAGE
Combinando SAN Volume Controller con Tivoli Storage Productivity
Center, Big Blue propone una soluzione dedicata di virtualizzazione che
può integrare anche array di altri produttori. Così si pongono le basi
per l’evoluzione verso il cloud.
I n molte realtà, la virtualizzazione è un concetto
che è stato inizialmente applicato soprattutto
alla componente dei server presenti nei sistemi
informativi. Molti dei benefici che se ne posso-
no ricavare – dal miglioramento dell’utilizzo delle
risorse alla flessibilità, dai tempi di risposta alla
mobilità dei carichi di lavoro fino al disaster reco-
very – possono tuttavia risultare limitati se solo
una parte dell’infrastruttura viene coinvolta nel
processo. Ecco perché la virtualizzazione dello
storage è una componente critica dell’evoluzione
dei sistemi informativi e costituisce anche uno
dei fondamenti per un’efficace implementazione
del cloud computing.
sempre SAN Volume Controller, mentre il “re-
Nell’ambito delle soluzioni proposte da IBM, SAN gista” è IBM Tivoli Storage Productivity Center.
Volume Controller (SVC) rappresenta la tecnolo- A questo, IBM aggiunge Tivoli Storage Flash
gia dedicata di maggior peso storico. Il prodotto, Copy Manager, sottolineando come la capaci-
network-based, risiede in una SAN e si connette a tà di snapshot integrata con le applicazioni di
sistemi eterogenei attraverso iSCSI o Fibre Chan- business ed incorporata nel prodotto sia un in-
nel. Fino a otto nodi possono essere configurati grediente essenziale dello storage hypervisor.
in cluster per ottenere scalabilità sull’ampiezza di
banda o sulla capacità. Ogni modulo SVC inclu- Ottimizzazione con il thin provisioning
de la replica fra sistemi storage e il mirroring fra In questo modo, è possibile creare un singolo
unità locali o remote. Inoltre, SVC utilizza un’in- pool di dispositivi gestiti che possono essere
terfaccia grafica modellata su IBM XIV Storage distribuiti su differenti array (anche di differenti
System, progettata per rendere facile l’utilizzo e produttori). Lo storage virtualizzato (anche su
semplificare il provisioning. array singolo) funziona in modo diverso rispet-
to ai metodi tradizionali di condivisione in una
Lungo la strada tracciata, IBM è arrivata a pro- SAN. Di solito, infatti, ogni applicazione viene
porre un concetto di hypervisor dello storage che allocata in una porzione dello storage fisico
si allinea a quanto già disponibile nel mondo dei disponibile, in base alle necessità specifiche.
server. Dietro quello che è stato battezzato Sto- Questa modalità tende però a lasciare spazio
rage Hypervisor si cela una combinazione di sof- libero inutilizzato. Il thin provisioning dello sto-
tware storage, che integra le necessarie funzioni rage hypervisor, invece, mette a disposizione
di virtualizzazione dello storage e di software di delle applicazioni spazio virtuale utilizzabile a
gestione, in modo da fornire il framework auto- piacimento, fino al limite dello storage fisico di-
matico e centralizzato per tutte le risorse storage sponibile. Inoltre, esso disaccoppia i servizi sto-
virtualizzate. Il prodotto che agisce praticamen- rage (mirroring o replica, per esempio) dai sot-
te per rendere efficace questa combinazione è tostanti media fisici. Queste funzionalità sono
15
16. molto importanti per attività come la protezione e differenti sistemi, come gli IBM XIV e DS8000,
dei dati, il backup locale o il disaster recovery ma anche array di altri produttori.
remoto. In un ambiente gestito da hypervisor, i
servizi storage accompagnano i dati e questi pos- In prospettiva, il successo di un’evoluzione verso
sono essere spostati virtualmente da un’istanza il cloud storage si ottiene attraverso un processo
fisica all’altra. graduale, che inizia proprio con la disponibilità
di un’infrastruttura virtualizzata e resa efficiente.
Dovrebbe essere ovvio che un amministra- Questi aspetti, combinati con la gestione auto-
tore che utilizzi lo schema hypervisor per lo matizzata, possono fornire un catalogo di servizi
storage, debba dedicare il proprio tempo a com- con capacità di self-provisioning, collaborazione
piti a maggior valore aggiunto. IBM SVC abilita la e abilitazione verso il concesso di pay-per-use.
virtualizzazione, mentre Tivoli Storage Producti- Una cloud privata di storage offre numerosi van-
vity Center non solo automatizza la gestione dei taggi agli utenti, a partire dall’erogazione più effi-
cambiamenti, ma la rende possibile a un livello cace dei servizi, con livelli più elevati e un miglior
più granulare. Il processo di gestione fa sì che i utilizzo degli asset. Gli ambienti storage virtua-
dati vengano indirizzati su volumi virtuali attra- lizzati e dotati di capacità avanzate di deduplica,
verso multipli livelli di storage (dalle memorie compressione e self-tuning sono meglio predi-
flash SSD ai dispositivi FC/SAS fino a quelli SATA) sposti per il passaggio alla cloud privata.
Il nastro compie 60 anni
Mentre le imprese di tutto il mondo lottano con le incessanti ondate di dati che piombano nei loro data
center, qualcuno potrebbe chiedersi come siamo arrivati a questo punto. E se da un lato vi è stato un
gran numero di innovazioni nella storia dell’informatica, dall’altro è giusto dire che lo storage digita-
le così come lo conosciamo oggi non esisterebbe se IBM non avesse creato il nastro nel maggio di
sessant’anni fa. L’innovazione ha consentito agli enormi calcolatori di salvare i loro risultati in modo
digitale su bobine di nastro magnetico, anziché su schede perforate o carta. Man mano che questi
sistemi aumentavano le proprie prestazioni, le relative soluzioni di archiviazione non erano sostenibili.
Per rispondere a questa esigenza IBM ricorse al nastro magnetico. La tecnologia, che veniva utilizzata
per registrare l’audio, sembrava promettente per i massicci sistemi di calcolo, ma il nastro non era suf-
ficientemente durevole. Quando si utilizzavano grandi bobine di nastro per acquisire i dati dei compu-
ter, i potenti motori delle unità nastro, che si avviavano e si arrestavano bruscamente, ne provocavano
facilmente la rottura.
Gli ingegneri affrontarono questo problema in modo diretto. E il 21 maggio 1952, quando l’azienda
rilasciò il suo primo computer di produzione, l’IBM 701, questo era accompagnato da un sistema di
archiviazione che rappresentava una rivoluzione nel nastro magnetico. L’IBM 726 era un colosso da
424 chilogrammi, poggiato sul pavimento, che risolveva il problema della rottura grazie all’uso di una
“colonna sotto vuoto”, che creava un tampone di nastro libero tra gli avvii e gli arresti.
L’innovazione della colonna sotto vuoto non fu solo un successo, ma venne adottata dalla maggior
parte dei produttori di unità nastro ad alte prestazioni, facendone una delle tecnologie informatiche
più impiegate del XX secolo.
Le sfide del 2012 non sono certo quelle del 1952. Oggi dinamiche rivoluzionarie, come social media,
mobile computing, Big Data e regolamentazione, si intrecciano e creano un ingorgo del traffico digitale
di dimensioni epiche. Secondo alcuni, la quantità di informazioni che dovrà essere archiviata in modo
digitale supererà gli 8 Zettabyte (ossia 8 miliardi di Terabyte) entro il 2015. Queste tendenze e previsioni
costringono ogni settore a esaminare le proprie infrastrutture di storage con un’attenzione senza pre-
precedenti. Ma il nastro resiste ancora e IBM continua a investirci.
16
17. LA SOLUZIONE DI SGM
PER GESTIRE I BIG DATA
Quello della grande gli interlocutori esterni; inno-
vazione continua sia nelle tec-
per selezionare i rivenditori più
in sintonia con SGM e integrar-
distribuzione è uno nologie che nei processi con li nella rete del gruppo; il nego-
dei mercati dove l’obiettivo di essere un punto zio del futuro, con tecnologie e
il volume di dati di riferimento nel mercato, alla
portata di tutti.
layout all’avanguardia per es-
sere sempre più in sintonia con
da elaborare e le esigenze e le aspettative del
analizzare in funzione Il modello di business è in cliente finale.
del business sta grado di cogliere veloce-
mente le opportunità del L’infrastruttura
aumentando con mercato e trasferirle in ma- tecnologica e i vantaggi
maggior intensità. niera veloce ed efficiente L’impianto ICT, si basa su siste-
Il più grande su tutti i canali di vendita. mi hardware aperti e scalabili,
due Power Systems e blade IBM.
associato al Gruppo Il risultato sono circa 14 milio- Per far fronte al volume crescen-
Expert in Italia ha ni di articoli venduti ogni anno te dei dati da gestire ed elaborare
rinnovato il sistema e 38.000 ogni giorno: pratica-
mente vengono acquistati 37
oggi SGM ha scelto la piattafor-
ma XIV proprio per le sue carat-
informativo puntando elettrodomestici al minuto. teristiche di scalabilità dinamica,
su scalabilità e auto riparazione in caso di gua-
L’esigenza
azzeramento dei Oggi SGM vuole essere un’a-
sto tecnico e grandi prestazioni
ottimali, tutti requisiti che riduco-
fermi macchina zienda multicanale totalmen- no la complessità gestionale tipi-
te integrata: non deve esser- camente correlata agli ambienti
S GM è per dimensioni e fat-
turato il più grande asso-
ciato al Gruppo Expert in Italia
ci separazione tra il negozio
ed il web, tra clienti della di-
stribuzione e clienti del det-
a rapida crescita. L’architettura è
anche concepita per ottimizzare
in maniera automatica l’utilizzo
ed opera nel mercato dell’e- taglio che, magari, hanno delle risorse di tutti i componenti
lettronica di consumo con il solo un contatto attraverso il all’interno del sistema, permet-
marchio “MarcoPolo Expert” . call center. tendo così una semplificazione
Lo confermano alcuni numeri delle attività di gestione e con-
chiave: 68 megastore di pro- Per raggiungere questo obiet- figurazione nonché un conside-
prietà, 5 negozi in franchising, tivo SGM ha avviato una serie revole miglioramento delle pre-
700 clienti distributori, oltre 2 di progetti che puntano es- stazioni e della disponibilità di
milioni di carte fedeltà, 1.700 senzialmente su cinque fattori informazioni.
dipendenti. chiave: un’efficace comunica-
zione interna, semplice e bi- L’architettura software è af-
I valori dell’azienda sono ri- direzionale; un nuovo format facciata sul DB2 e le soluzioni
masti invariati nel tempo e ne commerciale; la logistica, che WebSphere in ambito Web e
hanno guidato l’evoluzione mette a disposizione di tutti i middleware aiutano la pubbli-
e la crescita: attenzione alla punti di vendita un magazzino cazione e l’integrazione dei dati.
persona, qualunque sia il suo virtuale che è la somma del La soluzione IBM DataStage ha
ruolo (cliente, dipendente o magazzino centrale di Forlì e di trovato un’ottima collaborazio-
fornitore); centralità del clien- tutti i prodotti disponibili pres- ne con la sottostante piattafor-
te; meritocrazia sia all’interno so i punti vendita; un progetto ma XIV che ne aiuta la velocità
dell’organizzazione sia verso di espansione in franchising di spostamento del dato.
17
18. In SGM il sistema informati- ter contare su un’infrastruttura guentemente lo deve essere
vo riveste un ruolo strategi- tecnologica in grado di evolve- anche per chi, operando sulle
co, per rispondere in maniera re in maniera dinamica rispetto tecnologie, ne deve fornire la
puntuale alla domanda della alle esigenze del business, che soluzione tecnica in tempi ra-
clientela e per anticiparne le consentisse di accedere velo- pidi.
esigenze. L’azienda si trova a cemente ai dati a seconda delle
dover gestire grandi quanti- necessità di ogni specifico mo- La piattaforma XIV è stata la ri-
tà di dati rilevanti e continua- mento. sposta completa alle richieste
mente freschi provenienti da di SGM in ambito storage. Non
canali distributivi diversi, senza Un’implementazione solo. L’installazione e la mes-
poter dedicare tempo alle ma- rapida ed efficiente sa in produzione del nuovo
nutenzioni e agli spostamenti. Se la tecnologia deve essere sistema sono state realizzate
La decisione, inevitabile, di rin- un abilitatore del business, è in tempi estremamente brevi,
novare le architetture esistenti necessario che sia utilizzabile con un impiego ridotto di ri-
ha fatto perno sull’esigenza pri- facilmente e deve consentire sorse umane, senza alcun im-
maria della scalabilità, ma an- rapidamente l’analisi del dato patto sulle attività del gruppo,
che sulla possibilità di azzerare e dell’informazione. La sem- facendo sì che un importante
i fermi macchina e consentire plicità d’uso deve essere vista cambio di tecnologia fosse re-
rapide rivisitazioni d’uso. In so- prioritariamente orientata al alizzata con un’azione traspa-
stanza, l’IT di SGM doveva po- utente del sistema ma conse- rente all’utente finale.
18
19. CONSOLIDAMENTO
E SICUREZZA IN CASA
TREVALLI COOPERLAT
T revalli Cooperlat è nata nel 1982 su iniziati-
va della Confcooperative Marche tra nove
cooperative agricole e ha seguito negli anni un
Dal punto di vista dello storage, ora un unico
sistema IBM Storwize V7000 contiene sia i vo-
lumi open che i volumi iSeries con disponibilità
percorso di crescita continua fatto di nuove ac- di 32,5 Tb su dischi SAS 2 e 2,7 Tb su SSD con
quisizioni, tanto da diventare oggi una grande attiva funzionalità Easy Tier. IBM SAN Volume
realtà agroalimentare che raggruppa undici coo- Controller (SVC) si occupa della virtualizzazione
perative agricole e opera in nove regioni italiane. dello storage, integrando le funzionalità di thin
Ne fanno parte oltre mille allevatori, mentre il fat- provisioning e flash copy, la prima per avere la
turato supera i 220 milioni di euro. possibilità di assegnare anche grandi volumi a
macchine di test andando oltre le capacità reali
All’IT di Trevalli Cooperlat viene richiesto in assegnate e la seconda per una nuova politica di
generale un servizio che possa gestire veloce- backup, che permetta di minimizzare l’indispo-
mente i cambiamenti strutturali e logistici che nibilità dei sistemi per queste funzioni.
l’azienda persegue per il proprio business in ter-
mini di accorpamenti, acquisizioni, dislocazioni, La revisione delle politiche di backup sfrutta le
razionalizzazioni. Occorre, inoltre, far fronte alla potenzialità di IBM Tivoli Storage Manager per
crescente informatizzazione dei reparti produtti- poter gestire direttamente gli snapshot dell’am-
vi con sistemi sicuri e sempre accessibili, gover- biente VMware per il mondo open. e la flashcopy
nare i costi di gestione del data center, avere a di SAN Volume Controller per il mondo iSeries.
disposizione strumenti per la tutela dell’integrità L’infrastruttura di backup ha uno storage pool a
delle informazioni, per la continua disponibilità disco di 20Tb su un sistema IBM DS3500, 2 tape
delle informazioni per le strutture autorizzate e IBM TS3200 rispettivamente uno per il mondo
per la costante valutazione delle possibili debo- open con 4 drive e l’altro per i sistemi iseries con
lezze del sistema informativo aziendale. 2 drive, connessione in fibra 4GB con un lama
IBM HS22 che funge da server Tivoli.
Questi sono gli elementi che hanno convinto il
management di Trevalli Cooperlat a ristruttura- Il nuovo data center ha portato a significativi ri-
re la propria infrastruttura informatica, in modo sparmi energetici, con una riduzione dei consu-
tale da renderla flessibile e pronta a rispondere mi di circa il 33%.
velocemente ai cambiamenti, aperta alle nuove
tecnologie e scalabile velocemente in termini di
processore, memoria e disco e performance.
Dopo un iniziale assessment infrastrutturale af-
fidato a IBM, la soluzione progettuale scelta da
Trevalli Cooperlat, fornita e realizzata con il sup-
porto del business partner EUROLAB, prevede
l’utilizzo di soluzioni tecnologiche innovative,
che spaziano dal consolidamento di tutti i ses-
santa server fisici Windows/Linux in ambiente
VMware su un IBM BladeCenter H con 2 lame
HX5 a quello dei tre sistemi iSeries per SAP at-
traverso l’inserimento, nello stesso BladeCenter
H, di una lama POWER7 PS702 a 6 core.
19