Mais conteúdo relacionado Semelhante a IDC Vitrualization Whitepaper (20) Mais de Christian Hym (20) IDC Vitrualization Whitepaper1. DOSSIER
Généralisation de la virtualisation des serveurs : l’approche d’Intel
En partenariat avec Intel
John Humphreys Tim Grieser
Juin 2006
L’AVIS D’IDC
IDC France • 124 Bureaux de la colline • 92213 SAINT-CLOUD CEDEX • Tél. : 01 55 39 61 00 • Fax : 01 55 39 61 01 • wwww.idc.com/france
La démocratisation rapide de la virtualisation logicielle des serveurs d’architecture Intel
(IA) qui est intervenue ces dernières années fait aujourd’hui de cette technique une
solution incontournable pour le partage de ressources matérielles « horizontales »
(plusieurs ordinateurs). Avec un emploi de plus en plus fréquent en environnement de
production, les stratégies de sa mise en œuvre perdent en complexité et gagnent en
efficacité. Face à l’intérêt qu’elle suscite, il est d’autant plus important, pour obtenir
la plate-forme la plus rentable, la plus performante et la plus fiable possible, qu’une
intégration intervienne entre les couches matérielles et logicielles. L’approche d’Intel
repose sur la nouvelle technologie Intel® VT (Virtualization Technology) qui, assurant
une virtualisation assistée par matériel, vise à rationaliser le fonctionnement des
hyperviseurs de machines virtuelles.
DANS CE DOSSIER…
Ce dossier IDC aborde l’essor de la virtualisation sur plates-formes dotées de
processeurs Xeon® ainsi que l’action d’Intel pour généraliser la virtualisation sur plates-
formes fondées sur son architecture.
INTRODUCTION
Sous la forme du partitionnement d’un serveur physique en plusieurs serveurs virtuels
(« machines virtuelles »), la virtualisation est une solution connue et utilisée depuis
longtemps pour le partage des ressources matérielles de plates-formes serveurs
« verticales » (un seul ordinateur très puissant). Dans ces environnements, elle a
évolué au fil des ans pour devenir une technique stable et performante d’amélioration
du rendement matériel et de rationalisation du traitement des charges de production, y
compris à l’intention des applications stratégiques. L’historique de la virtualisation sur
ces plates-formes correspond à l’évolution du partitionnement des ressources de base,
d’abord logiciel uniquement, puis logiciel assisté par matériel, jusqu’à une assistance
matérielle élargie.
ESSOR RAPIDE DE LA VIRTUALISATION
Ces dernières années, la virtualisation s’est peu à peu imposée comme une stratégie
essentielle pour le partage des ressources de plates-formes d’architecture Intel en
environnement horizontal. On lui prédit par ailleurs un essor rapide quant au nombre
des serveurs capables de gérer des machines virtuelles. Jusqu’ici, sa mise en œuvre
sur architecture Intel reposait essentiellement sur des logiciels — les « hyperviseurs de
machines virtuelles » — capables de partitionner des serveurs physiques en plusieurs
serveurs logiques appelés « machines virtuelles » (VM).
2. Chacune de ces VM peut comporter l’image d’un système d’exploitation (Windows,
Linux, etc.) et un ensemble applicatif. Comme le montre la figure 1, les livraisons de
plates-formes serveurs matérielles dotées de capacités de virtualisation logicielles
devraient, selon les prévisions actuelles d’IDC, augmenter rapidement, pour passer
ainsi de 172 000 unités en 2004 à 1 209 000 en 2009, soit un taux de croissance annuel
composé de 47,7 %. Parallèlement, le nombre de plates-formes serveurs virtualisées
devrait passer de 778 000 en 2004 à 5 107 000 en 2009, soit un taux de croissance
annuel composé de 45,7 %. Sur l’ensemble des plates-formes virtualisées, celles gérés
sous Windows ou Linux devraient augmenter de 51,4 et 55,3 % respectivement, ce
même taux étant plus faible pour Unix puisqu’il ne serait que de 34,7 %.
FIGURE 1
É v olut i o n d e s l i v ra i s o n s d e s e rv e urs à vi rtual i ser (2004-2009)
6 000 000
5 000 000
(en nb. d’unités)
4 000 000
3 000 000
2 000 000
1 000 000
0
2
004 2005 2006 2007 2008 2009
Serveurs physiques virtualisés
Machines virtuelles
Source : IDC, 2006.
LES PLATES-FORMES INTEL ET LA VIRTUALISATION
La virtualisation sur serveurs haut de gamme se pratique depuis une trentaine d’années,
c’est-à-dire depuis qu’IBM l’a instaurée sur ses macro-ordinateurs (mainframes).
De ces configurations, elle s’est étendue aux serveurs d’architecture RISC à partir
d’une combinaison matériel/logiciel exclusive (micrologiciel, système d’exploitation,
hyperviseur), pour arriver ces dernières années sur serveurs équipés de processeurs
Xeon, avec l’apparition de solutions de virtualisation logicielle d’éditeurs tels que
VMware et Microsoft ainsi que dans le cadre du projet Xeon Open Source. Si la
virtualisation logicielle sur architecture Intel est aujourd’hui une réalité concrète, c’est
aussi en raison de la très forte augmentation de leurs capacités qu’ont enregistrée
les plates‑formes équipées de processeurs Xeon.
2 n° 201922 © 2006, IDC
3. Approche de la virtualisation logicielle
La mise en œuvre du partitionnement et de machines virtuelles sur architecture Intel
s’est effectuée grâce à des logiciels appelés « moniteurs de machines virtuelles » ou
« hyperviseurs » et, en particulier, ceux de VMware (ESX Server), Microsoft (Microsoft
Virtual Server) et Xen. Dans le cadre de ces implémentations uniquement logicielles,
l’hyperviseur intercale un niveau d’abstraction (la machine virtuelle, autrement dit le
serveur logique) entre le matériel de base (le serveur physique) et le système d’exploitation
(Windows, Linux), ce qui permet à chaque OS gérant une machine virtuelle de se
comporter comme s’il avait le contrôle du matériel sous-jacent. C’est ainsi l’hyperviseur
qui autorise la coexistence de plusieurs machines virtuelles sur une même plate-forme
matérielle et de plusieurs systèmes d’exploitation et leurs ensembles applicatifs respectifs
sur un même serveur physique. Ces OS et applications gérés sur partitions virtuelles sont
en général qualifiés d’« invités », pour les distinguer de leurs homologues fonctionnant en
environnement serveur non virtualisé.
À la base, la virtualisation est une technique de partage des moyens matériels. Le principal
avantage des machines virtuelles est en effet qu’elles permettent de relever le rendement
des serveurs physiques grâce, précisément, au partage par plusieurs applications d’un
même ensemble de ressources physiques. On abandonne ainsi le modèle classique d’une
application par serveur qui caractérisait souvent les environnements serveur classiques,
autrement dit non virtualisés. Un autre avantage des VM est la possibilité d’isoler une
application des autres en termes de mémoire vive, de données et de contenus sur mémoire
de masse, pour ainsi éviter les problèmes tels que les conflits de pilotes.
On utilise par exemple les machines virtuelles en environnements d’études et de test.
On s’en sert ainsi pour gérer les évolutions d’un système d’exploitation (gestion de deux
versions successives de Windows sur le même serveur physique, par exemple), pour
faire fonctionner plusieurs versions d’une application sur un même serveur ainsi que pour
mettre en place, pour les essais, plusieurs environnements logiques assortis chacun d’une
configuration matérielle virtuelle. On fait par ailleurs de plus en plus fréquemment appel
à des VM sur architecture Intel en contexte de production, par exemple dans le cas de
serveurs consolidés (gestion de plusieurs applications regroupées sur un serveur, qui se
traduit par un rendement moyen en très nette hausse, mais qui conserve une réserve de
puissance convenable).
Limites de la virtualisation logicielle
La virtualisation purement logicielle offre certes de nombreux avantages, mais elle n’est
pas sans inconvénients en termes de temps système, de performances et de prise en
charge. La raison en est que les systèmes d’exploitation sont prévus pour disposer de la
maîtrise totale du matériel sous-jacent et non pas pour favoriser le partage des moyens.
Or les capacités matérielles qu’offre la technologie Intel VT, associées aux logiciels de
virtualisation actuels, ont précisément été pensées pour palier ces inconvénients.
L’APPROCHE INTEL VT
Au travers de la technologie Intel VT, Intel instaure une prise en charge matérielle de
la virtualisation. Cette technologie, qui vise à renforcer l’efficacité et les possibilités des
solutions de virtualisation logicielles, correspond à un ensemble d’optimisations apportées
aux plates-formes d’Intel et, en particulier, à ses processeurs. L’architecture Intel se fonde
en effet sur le principe d’anneaux de privilèges à quatre niveaux, du ring0 au ring3. Le
ring0 correspond à l’anneau disposant des privilèges les plus élevés et c’est celui qui, en
environnement natif, est dédié au système d’exploitation.
© 2006, IDC n° 201922 3
4. En mode purement logiciel, l’hyperviseur est géré en ring0, ce qui ramène les privilèges
du système d’exploitation à ceux du ring1. Cette approche fonctionne, mais présente
certains inconvénients — en termes d’exécution à un autre niveau de privilèges que
prévu (ring aliasing), d’instructions de non-déroutement (non-trapping instructions), de
déclaration excessive d’erreurs (faulting), de changement de contexte pour l’état CPU
et de compression de l’espace d’adresses — qui peuvent nuire aux performances ou à
la fiabilité de la solution. Aujourd’hui, la virtualisation des processeurs d’architecture x86
nécessite ainsi de complexes solutions logicielles de contournement.
La technologie Intel VT est prévue pour éliminer ces obstacles et la nécessité de ces
solutions palliatives, en gérant l’hyperviseur sur une couche racine, c’est-à-dire sur un
anneau de niveau inédit. On conserve ainsi la structure classique, avec le système
d’exploitation en ring0 et les logiciels d’application en ring2 (cf. figure 2).
FIGURE 2
La v ir t u a l i s a ti o n a v a n t e t a p rè s l a technol ogi e Intel V T
VM1 VMn VM1 VMn
Ring 3 Ring 3
App App App App
OS OS Ring 1 OS OS Ring 0
Racine
Ring 0
Hyperviseur Hyperviseur VMX
Technologie Intel® VT
Matériel physique partagé
Matériel physique partagé
• L’hyperviseur ramène l’exécution de l’OS • L’hyperviseur est géré à un niveau de
invité en ring1 et occupe le ring0 privilèges qui lui est propre
• L’OS ignore qu’il ne bénéficie pas des • L’OS invité ne perd pas ses privilèges
privilèges du ring0 • L’OS est géré directement sur le matériel
• Nécessite une traduction logicielle lourde
Source : Intel, 2006.
4 n° 201922 © 2006, IDC
5. En palliant les inconvénients d’une virtualisation purement logicielle, la technologie Intel
VT est le socle de solutions susceptibles d’un large déploiement, sur tout un éventail
d’applications et pour de multiples environnements de production.
`` Surcharge en calcul et performances. Pour assurer l’émulation des ressources
serveur, les hyperviseurs uniquement logiciels entraînent un allongement du
temps système dans des domaines tels que ceux des E/S, de la gestion mémoire
(pagination) et de la simulation des instructions CPU « privilégiées ». Or, en prenant
en charge ces fonctions par une virtualisation matérielle, la technologie Intel VT
contribue à réduire ce temps système et élargit donc l’ensemble des applications
qui se prêtent à la virtualisation.
`` Simplification. Les solutions actuelles de virtualisation logicielle imposent au
système d’exploitation de passer par l’hyperviseur pour communiquer avec le
matériel sous-jacent, car l’OS est géré dans l’espace d’adresses et au niveau de
privilèges normalement réservés aux applications. Avec ces solutions, c’est par
l’intermédiaire d’une traduction binaire et du patchage de l’OS que l’on parvient
à gérer ce dernier comme invité en environnement virtualisé, en lui faisant croire
qu’il fonctionne sur une « machine nue ». Cette traduction peut intervenir en
dynamique, à l’exécution (runtime) ou bien de manière statique, par avance (c’est
ce qu’on appelle la paravirtualisation). Lorsqu’il y a traduction, à chaque mise à
jour de l’OS (nouvelle version, Service Pack, correctif, etc.), l’hyperviseur doit
systématiquement être patché.
Or, par la mise en place d’une architecture nouvelle qui permet à l’OS de fonctionner
en invité, sans modification, la virtualisation assistée par matérielle élimine cette
traduction binaire et ce patchage.
`` Fiabilité. Nombreux sont les utilisateurs à craindre que la traduction logicielle
et le patchage ne nuisent à la fiabilité globale de la solution. La technologie
Intel VT y répond par la prise en charge matérielle d’un élargissement des
anneaux de privilèges, qui se traduit par une simplification de l’hyperviseur :
celui-ci s’exécute dans un nouvel anneau, aux privilèges plus forts, l’OS invité
continuant de tourner en anneau 0.
`` Champ d’application. Comparée aux solutions purement logicielles actuelles, la
technologie Intel VT élargit la virtualisation à des systèmes d’exploitation bien plus
nombreux. Elle assure en effet la prise en charge directe des OS patrimoniaux
sans modification (plusieurs versions de Linux et Windows). Elle gère par ailleurs
aussi les OS 64 bits invités, ce qui a toute son importance face à la rapide montée
en puissance des solutions articulées sur les processeurs Xeon 64 bits d’Intel (et
sachant que les solutions actuelles n’en sont pas capables).
`` Flexibilité. L’un des objectifs premiers de la technologie Intel VT est d’assurer
l’indépendance des hyperviseurs par rapport à tel ou tel système d’exploitation,
pour dispenser d’avoir à mettre à jour ceux-ci à chaque évolution d’un OS.
`` Fiabilité de la plate-forme. Avec l’évolution d’environnements où chaque
application a plus ou moins son serveur vers un contexte où un même serveur
virtualisé hébergera toute d’une série d’entre elles, l’impératif est à la fiabilité
du matériel. Pour limiter les risques liés au fait de « mettre tous ses œufs
sans le même panier », les utilisateurs ne pourront donc que se tourner vers
la plate-forme la plus susceptible de leur assurer fiabilité, continuité de service
et facilité d’intervention (RAS).
© 2006, IDC n° 201922 5
6. Dans l’ensemble, la virtualisation assistée par matériel que propose la technologie Intel
VT, associée au soutien continu de celle-ci par les éditeurs d’hyperviseurs, va optimiser
les environnements virtualisés. Le lancement de cette technologie constitue la première
étape dans les perspectives à long terme d’Intel pour la virtualisation.
SOUTIEN DE L’ÉCOSYSTÈME
Le succès de la technologie Intel VT repose sur le soutien d’un vaste écosystème
de constructeurs, d’éditeurs, de revendeurs, d’entreprises utilisatrices et d’instances
normatives. Intel travaille en l’occurrence avec des éditeurs de logiciels pour assurer la
prise en charge de cette technologie par leurs hyperviseurs : Microsoft et VMware ainsi
que Xen pour l’Open Source.
Intel intervient par ailleurs activement auprès de grands constructeurs et distributeurs
pour veiller à ce que leurs plates-formes soient équipées d’un BIOS compatible avec les
derniers-nés de ses processeurs dotés de la technologie Intel VT.
L’objectif est de proposer au secteur informatique une plate-forme de virtualisation
assistée par matériel qui soit monostandard, qui gère les systèmes d’exploitation invités
qu’ils soient paravirtualisés ou patrimoniaux et qui puisse s’appliquer aux serveurs
équipés de processeurs Xeon® et Itanium® attendus en cours d’année ainsi qu’aux
micro-ordinateurs.
Intel a ainsi annoncé la prise en charge d’interfaces d’hyperviseur définies pour
le système d’exploitation hôte, la pile logicielle d’administration système et/ou le
micrologiciel (firmware) et les périphériques de la plate-forme. Cette interface prend
en partie en charge les activités de bas niveau afin de limiter le temps système lié à
la couche de virtualisation ainsi que pour renforcer les performances, la sécurité et la
fiabilité des services virtualisés. Aux plates-formes qui en sont dotées, la technologie
Intel VT permet aussi l’exécution directe d’un hyperviseur sur une architecture et un jeu
d’instructions IA-32.
L’arrivée de la virtualisation CPU, fin 2005, représente la première d’une série de solutions
de virtualisation d’Intel dont « VT » est le nom générique. Cette entreprise concentre
ses activités d’études actuelles sur une assistance à la virtualisation des processeurs
et de la mémoire. Elle entend ensuite élargir cette technique aux sous-systèmes d’E/S,
afin d’améliorer encore les capacités de virtualisation à l’échelle de toute la plate-forme.
C’est ainsi qu’en mars 2006, Intel a publié la spécification préliminaire de la technologie
Intel VT-d (Virtualization Technology for Directed I/O), après l’avoir communiquée aux
constructeurs concernés.
La technologie Intel VT-d assure une assistance matérielle au jeu de composants
(chipset) pour le remappage DMA (Direct Memory Access) et l’attribution directe de
mémoire. En prenant en charge ce remappage au niveau du matériel, elle protège mieux
la mémoire contre le code DMA erratique et renforce la fiabilité globale. Les hyperviseurs
peuvent aussi faire appel à la technologie Intel VT-d pour attribuer directement des
ressources d’E/S à des machines virtuelles précises, ce qui assure à l’OS invité un
accès direct aux fonctions des périphériques physiques pour lesquels l’éditeur de
l’hyperviseur n’a peut-être pas publié de pilotes d’émulation. Cette technologie stimule
également les performances des E/S pour certains schémas d’utilisation, par exemple
les environnements stratégiques ou d’études et de tests. Les premiers processeurs
dotés de la technologie VT-d seront mis à la disposition des éditeurs d’hyperviseurs en
2006, pour une livraison effective en phase avec les projets de l’écosystème.
L’échéance suivante d’Intel portera sur une virtualisation plus granulaire de la mémoire
afin d’améliorer encore les performances et la stabilité des hyperviseurs.
6 n° 201922 © 2006, IDC
7. FIGURE 3
La v ir tu a l i s a ti o n m a té ri e l l e s e l o n Intel
VM 1 VM 2 VM 3
VT-x et VT-I :
virtualisation CPU
Hyperviseur
et mémoire
MCH
PCIe x8
PCIe x8
PCIe x8
PCIe x8
DMI
Boot
anciens
OS VT-d : virtualisation
des sous-systèmes
d’E/S
Source : Intel, 2006.
PERSPECTIVES
Les perspectives de la virtualisation sont immenses. Une récente étude d’IDC indique
en effet que les entreprises qui l’emploient déjà l’ont mise en œuvre sur un cinquième
de leurs serveurs et que cette proportion devrait passer à 50 % d’ici à la fin 2006.
On constate ainsi de plus en plus que cette technique cesse d’être l’apanage des
réceptifs précoces et qu’elle se généralise au contraire, en raison des usages
supplémentaires qui lui sont trouvés et de ses nombreux atouts, dont la suite
de ce document dresse la liste.
© 2006, IDC n° 201922 7
8. Consolidation de serveurs
La possibilité de partitionner un serveur permet de gérer sur chaque partition un BIOS,
un OS et des applications distincts. La virtualisation purement logicielle assure le partage
des moyens matériels physiques avec isolement complet de la partie logicielle. Elle
favorise une réduction des coûts matériels (mais coûts logiciels inchangés) et facilite
l’administration en la simplifiant. Elle réduit par ailleurs la consommation électrique, le
câblage et l’encombrement des datacenters. Il s’agit actuellement de l’usage le plus
courant de la virtualisation.
`` Consolidation de l’infrastructure informatique
`` Tout un datacenter en seul rack de serveurs
`` Environnements multi-OS
Environnement d’études et de tests
L’une des applications de la virtualisation à connaître un engouement certain est la
gestion de solutions pilotes dans des partitions virtuelles distinctes. Cette approche tire
parti de tous les avantages de la consolidation des serveurs (en réduisant le nombre des
machines sous-exploitées) et favorise une plus grande flexibilité grâce à la possibilité
d’un déploiement applicatif plus rapide. Avant de les déployer sur tout un datacenter,
on peut en effet valider des applications nouvelles dans une simple partition, ce qui
renforce la stabilité de la solution concernée.
`` Meilleur rendement de la ou des machines de test
`` Déploiement de nouvelles applications
`` Déploiement accéléré
Migrations et mises à niveau matérielles
Les atouts de la virtualisation pour les migrations matérielles sont comparables à
ceux qu’elle assure aux environnements d’études et de tests. Elle permet en effet de
phaser la migration d’un système d’exploitation et de ses applications sur une nouvelle
machine. En validant les solutions correspondantes sur des partitions virtuelles, les
équipes informatiques limitent ainsi les risques de perturbation de service qu’implique
cette opération. Lorsqu’il s’agit de changer d’architecture, le phasage de cette migration
sur des serveurs virtualisés permet une validation complète avant déploiement.
`` Gestion des changements
`` Migration des systèmes d’exploitation
`` Correctifs et mises à niveau
Continuité de l’activité
La majorité des datacenters dispose d’un système ou d’un autre de basculement de la
charge d’un serveur en cas d’indisponibilité de celui-ci, en général sur une machine qui
est la réplique de la première. Or, dans la mesure où une grande partie des défaillances
de serveurs sont d’origine logicielle, réaliser cette duplication sous forme de deux
partitions virtuelles de la même machine se traduit par une baisse du coût. Ce dispositif
nécessite cependant, bien sûr, que la machine elle-même soit extrêmement fiable,
ce qui est le cas des serveurs équipés de processeurs Intel Xeon MP grâce à leurs
8 n° 201922 © 2006, IDC
9. caractéristiques RAS de pointe. De plus, avec la fiabilité sans cesse croissance des
nouveaux serveurs Xeon et Itanium, cette application de la virtualisation ne peut que
se développer.
`` Prise de relais, sur incident, d’une machine virtuelle par une autre
`` Partition réservée aux services informatiques
`` Reprise sur sinistre et incident (sauvegardes)
Gestion prévisionnelle des moyens
Les partitions virtuelles peuvent se dimensionner et se redimensionner à loisir, en
fonction des besoins. Cette particularité offre une grande souplesse aux services
informatiques, qui peuvent ainsi mettre en place des ressources de calcul massives si
nécessaire (clôture de fin de trimestre, par exemple), pour les réduire ensuite. Grâce à
cette attribution des moyens de traitement à la carte, le rendement global des serveurs
est optimisé.
À l’avenir, le provisionnement des capacités de traitement sera encore plus dynamique,
en particulier pour leur mise en place et leur suppression.
`` Globalisation de l’infrastructure
`` Dimensionnement applicative dynamique
`` Informatique à la demande
Équilibrage de charges
Dans le cadre de la virtualisation, les outils d’équilibrage des charges surveillent le taux
d’utilisation des machines virtuelles et modifient, en appliquant des règles préétablies,
la répartition de ces charges sur plusieurs VM pour optimiser la capacité de traitement
par rapport à la réserve de puissance.
`` Équilibrage des charges sur plusieurs plates-formes
`` Gestion de la réserve de puissance
`` Dimensionnement applicative dynamique
Depuis l’apparition de la virtualisation, ses applications se sont considérablement
élargies. Technique réservée à l’origine au renforcement du rendement des serveurs par
leur consolidation, elle s’emploie également aujourd’hui pour pérenniser les applications
gérées sous d’anciens systèmes d’exploitation en les déplaçant des machines qui les
hébergeaient vers des serveurs plus puissants.
Ses applications se sont également étendues à la continuité de l’activité, à la gestion
prévisionnelle des moyens informatiques et à l’automatisation à partir d’un ensemble de
règles, qui sont les prémices d’une vraie informatique à la demande.
C’est cette palette d’usages en constante expansion qui rend la virtualisation aussi
intéressante pour les entreprises et c’est aussi la raison pour laquelle Intel, ses partenaires
constructeurs et les éditeurs spécialisés travaillent à créer ensemble une plate-forme
de virtualisation performante, qui englobe les aspects matériels et logiciels ainsi que
de gestion et d’administration. Cette collaboration est essentielle pour surmonter les
obstacles à cette technique et pour pleinement exploiter son potentiel.
© 2006, IDC n° 201922 9
10. ENJEUX
Les enjeux qui se présentent à Intel pour la virtualisation assistée par matériel consistent
surtout à faire accepter cette solution. Cette entreprise devra ainsi continuer de démontrer
tant à ses clients qu’à ses partenaires éditeurs que la technique en question renforce les
performances et voit ses applications se multiplier.
Elle devra également continuer de développer l’écosystème autour de la technologie
Intel VT et mettre en place un cadre où les éditeurs et elle-même pourront travailler en
partenariat. L’enjeu auquel elle répond actuellement est ainsi d’orchestrer la prise en
charge de cette technologie par les hyperviseurs des trois grands éditeurs concernés :
VMware, Microsoft et Xen.
Le déploiement de serveurs dotés de cette technologie et des hyperviseurs correspondants
s’effectue dans le souci des besoins des utilisateurs. Sa réussite conduirait à renforcer
la crédibilité de cette solution et aiderait Intel à planter le premier le drapeau de la
virtualisation pour les ordinateurs d’architecture x86.
L’entreprise restera par ailleurs vigilante en continuant de se démarquer par la virtualisation
matérielle, d’innover et de promouvoir les standards. Or innover sur le marché de
l’informatique standard, où les partenaires d’un intervenant jouent un rôle crucial dans
sa réussite, est un art dans lequel l’entreprise est passée maître. Il lui faudra néanmoins
impérativement continuer à appliquer ces enseignements au marché de la virtualisation
en veillant à fournir à ses partenaires éditeurs la marge de manœuvre dont ils ont besoin
pour améliorer les capacités des produits qu’ils proposent.
CONCLUSION
La virtualisation se dessine comme l’une des tendances majeures pour le marché des
serveurs et la réalité des datacenters. Elle trouve déjà toute une série d’applications, de
l’amélioration du rendement des moyens matériels à la reprise sur sinistre, en passant par
les infrastructures d’études et de tests, la pérennisation des investissements applicatifs et
le renforcement de la continuité de service.
Son évolution vers une technologie habilitante horizontale est l’une des principales
raisons à l’engouement qu’elle suscite. Pour concrétiser son plein potentiel et élargir la
palette des applications pour lesquelles elle démontre un avantage, elle doit néanmoins
s’intégrer plus fortement au matériel.
En s’efforçant de l’incorporer à toute la gamme de ses plates-formes, Intel réalise
actuellement les investissements nécessaires à sa généralisation, ce qui assurera la
disponibilité de plates-formes à haut rendement, stables et ultraperformantes pour toute
une panoplie de technologies de virtualisation.
Note de copyright
Publication externe d’informations et données d’IDC. Toute utilisation d’informations
d’IDC pour la publicité, dans un communiqué de presse ou sur un support promotionnel
ne peut intervenir que sur autorisation écrite du vice-président d’IDC concerné ou du
responsable IDC pour le pays concerné. Un avant-projet du document doit accompagner
la demande d’autorisation. IDC est libre de refuser cette autorisation.
© 2006, IDC. Toute reproduction sans autorisation écrite est strictement interdite.
10 n° 201922 © 2006, IDC