Microsoft publie aujourd'hui la version finale de son hyperviseur Hyper-V, avec plus d'un mois d'avance sur son calendrier initial. Cette annonce, importante dans la mesure où Hyper-V signe l'entrée par la grande porte de l'éditeur dans le monde de la virtualisation, intervient le jour même où Bill Gates prend officiellement sa retraite pour s'occuper de sa fondation. Simple hasard du calendrier, ou véritable virage stratégique pour Microsoft ?
L'éditeur fournit depuis plusieurs années des composants logiciels dédiés à la virtualisation (Virtual PC, Virtual Server), mais ne disposait pas jusqu'ici à son catalogue d'un composant tel que Hyper-V, un "moteur" dédié à la virtualisation sur serveur. L'idée directrice est ici de faire fonctionner plusieurs systèmes d'exploitation sur une seule et même machine physique. On parle alors de "machines virtuelles", puisque chacun des systèmes ainsi montés fonctionne de façon autonome sur le serveur.
Intérêt : avec la virtualisation, un système d'exploitation comme Windows Server 2008 est capable d'accueillir des machines virtuelles fonctionnant sous d'autres OS. Sur des machines dotées de plusieurs processeurs multi-coeurs disposant d'instructions spécialement dédiées à la virtualisation, il est ainsi possible d'optimiser considérablement l'efficience d'un parc informatique.
La version finale d'Hyper-V, dont la première bêta publique a été proposée au téléchargement lors de la sortie de Windows Server 2008, début mars, est réservée à l'édition 64 bits du système d'exploitation serveur de Microsoft. Elle permet l'allocation d'un maximum de quatre coeurs d'exécution virtuels et de 64 Go de mémoire vive par système virtualisé ; les différentes machines virtuelles peuvent par ailleurs être assemblées en grappes, ou clusters, de façon à ce que l'une puisse prendre le relai de l'autre en cas de défaillance.
Au nombre des systèmes pouvant être "invités" sur une machine avec une prise en charge complète et immédiate grâce à Hyper-V (voir liste complète), on retrouve Windows Server, des éditions 2000 à 2008, Windows XP, Windows Vista ou Windows HPC - en version 32 ou 64 bits - mais aussi SUSE Linux Enterprise Server 10, de Novell.
S'il est tout à fait possible de virtualiser d'autres systèmes, l'absence de prise en charge exhaustive rend la mise en production plus délicate (absence de support technique par exemple), et les performances risquent de s'en ressentir, dans la mesure où, par exemple, les périphériques seront émulés au lieu d'être nativement gérés.
Impatient de démontrer l'efficacité du couple Windows Server 2008 / Hyper-V face aux solutions concurrentes telles que celles développées par VMWare ou Citrix, Microsoft planche déjà sur la mise au point de la version 2.0 d'Hyper-V, qui pourrait voir le jour d'ici la fin de l'année. En parallèle, l'éditeur travaillera à la mise à jour de l'outil System Center Virtual Machine Manager qui, aujourd'hui, ne gère pas les systèmes virtualisés via Hyper-V.
L'éditeur fournit depuis plusieurs années des composants logiciels dédiés à la virtualisation (Virtual PC, Virtual Server), mais ne disposait pas jusqu'ici à son catalogue d'un composant tel que Hyper-V, un "moteur" dédié à la virtualisation sur serveur. L'idée directrice est ici de faire fonctionner plusieurs systèmes d'exploitation sur une seule et même machine physique. On parle alors de "machines virtuelles", puisque chacun des systèmes ainsi montés fonctionne de façon autonome sur le serveur.
Intérêt : avec la virtualisation, un système d'exploitation comme Windows Server 2008 est capable d'accueillir des machines virtuelles fonctionnant sous d'autres OS. Sur des machines dotées de plusieurs processeurs multi-coeurs disposant d'instructions spécialement dédiées à la virtualisation, il est ainsi possible d'optimiser considérablement l'efficience d'un parc informatique.
La version finale d'Hyper-V, dont la première bêta publique a été proposée au téléchargement lors de la sortie de Windows Server 2008, début mars, est réservée à l'édition 64 bits du système d'exploitation serveur de Microsoft. Elle permet l'allocation d'un maximum de quatre coeurs d'exécution virtuels et de 64 Go de mémoire vive par système virtualisé ; les différentes machines virtuelles peuvent par ailleurs être assemblées en grappes, ou clusters, de façon à ce que l'une puisse prendre le relai de l'autre en cas de défaillance.
Au nombre des systèmes pouvant être "invités" sur une machine avec une prise en charge complète et immédiate grâce à Hyper-V (voir liste complète), on retrouve Windows Server, des éditions 2000 à 2008, Windows XP, Windows Vista ou Windows HPC - en version 32 ou 64 bits - mais aussi SUSE Linux Enterprise Server 10, de Novell.
S'il est tout à fait possible de virtualiser d'autres systèmes, l'absence de prise en charge exhaustive rend la mise en production plus délicate (absence de support technique par exemple), et les performances risquent de s'en ressentir, dans la mesure où, par exemple, les périphériques seront émulés au lieu d'être nativement gérés.
Impatient de démontrer l'efficacité du couple Windows Server 2008 / Hyper-V face aux solutions concurrentes telles que celles développées par VMWare ou Citrix, Microsoft planche déjà sur la mise au point de la version 2.0 d'Hyper-V, qui pourrait voir le jour d'ici la fin de l'année. En parallèle, l'éditeur travaillera à la mise à jour de l'outil System Center Virtual Machine Manager qui, aujourd'hui, ne gère pas les systèmes virtualisés via Hyper-V.
-
Auteur
-
Origine