Your SlideShare is downloading. ×
0
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Techdays Hyper V In Depth V2
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Techdays Hyper V In Depth V2

2,748

Published on

Retour d'expérience Hyper-V et virtualisation du MTC

Retour d'expérience Hyper-V et virtualisation du MTC

Published in: Technology
0 Comments
3 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total Views
2,748
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
104
Comments
0
Likes
3
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Hyper-V en profondeur, bonnes pratiques et quoi de neuf avec Windows Server 2008 R2<br />Code Session : DYN 305<br />Fabrice Meillon, Architecte Microsoft fabricem@microsoft.com<br />Bertrand Audras, baudras@microsoft.com<br />
  • 2. Objectifs de cette session<br />6 mois après le lancement d’Hyper-V : une base solide et reconnue<br />Retour d’expérience MTC<br />Quoi de neuf avec la version V2 <br />
  • 3. Hyper-V<br />
  • 4. Le rôle de l’hyperviseur<br />Couche logicielle minimale interagissant avec le matériel<br />Supporte la création des partitions<br />Chaque partition est une machine virtuelle<br />Chaque partition comporte un ou plusieurs processeurs virtuels<br />Les partitions peuvent posséder ou partager des ressources matérielles<br />Le système s’exécutant dans une partition est un invité<br />Applique les règles d’accès à la mémoire<br />Applique les règles d’utilisation des CPU<br />Les processeurs virtuels sont planifiés sur les processeurs physiques<br />Applique les règles de propriété des périphériques<br />Fournit un système de messages inter-partitions <br />Les messages prennent le forme d’interruptions<br />Expose une interface de programmation ou “hypercalls”<br />
  • 5. Partition Parent<br />La partition parent est en charge de :<br />Gérer et assigner les ressources matérielles. <br />Gestion de l’alimentation, plug&play, et les événements liés aux problèmes matériels<br />Créer et gérer les autres partitions<br />Charger et démarrer l’hyperviseur.<br />Les composants suivants sont hébergés dans la partition parent et constituent la pile de virtualisation :<br /> Virtual Machine Management Service (VMMS)<br /> Virtual Machine Worker Process (VMWP)<br /> Virtual Devices (VDEVs)<br /> Virtualization Service Providers (VSPs)<br /> Virtualization Infrastructure Driver (VID)<br /> Windows Hypervisor Interface Library (WinHv)<br />
  • 6. Partition enfant<br />Périphériques émulés<br />Carte mère avec contrôleur IDE, Carte réseau émulé, Chipset video<br />Virtualization Service Clients (VSC)<br />Consomme les ressources matériels présentées par le VSP correspondant (périphériques synthétisés)<br />VMBus<br />Services d’intégration invité<br />VMBus, WinHv, périphériques synthétisés<br />Composants d’intégration<br />Heartbeat, synchronisation de temps, VSS, arrêt, échange de clé/valeur <br /> Optimisations<br />Optimisations de code au niveau noyau des systèmes d’exploitation invités détectant la présence de l’hyperviseur(Vista SP1,Windows 2008, Xen)<br />
  • 7. Améliorations liées aux E/S<br />Nouvelle architecture de gestion des E/S offrant de meilleures performances<br />Les périphériques liés au stockage, au réseau, à l’affichage vidéo sont synthétisés pour des systèmes récents ou émulés pour des systèmes plus anciens<br />Dans le cas des périphériques synthétisés les entrées/sorties se font en mode Passthrough (sans commutation de contexte mode noyau/mode Utilisateur entre la machine virtuelle et la machine physique)<br />
  • 8. Sécurité<br />Architecture micro-noyau<br />Pas de code tiers<br />Réduction de la surface d’attaque<br />Aucun partage au niveau des périphériques virtualisés<br />Instance VMBus séparée pour chaque VM vers le parent <br />Pas de partage de mémoire<br />Chaque VM dispose de son propre espace d’adressage<br />Les VMs ne peuvent communiquer entre elles, sauf via le réseau si elles y sont autorisées<br />Les invités ne peuvent réaliser des attaques DMA car ils ne sont jamais mappés sur des périphériques physiques<br />Les invités ne peuvent écrire au niveau de l’hyperviseur<br />La partition parent ne peut pas écrire au niveau de l’hyperviseur<br />
  • 9. Qui peut faire quoi dans Hyper-V ?<br />Droits sont basés sur la définition de rôle et non sur des acls<br />Rôles sont basés sur une listes de tâches qui sont définis dans la définition du rôle<br />Un rôle par défaut dans Hyper-v -> Administrateur<br />Groupe local Administrateurs assigné au rôle Administrateur<br />Le gestionnaire d’autorisations (AzMan) dispose d’une interface graphique permettant de gérer la sécurité dans hyper-V<br />Accessible via une mmc ou menu Exécuter  azman.msc<br />C:ProgramDataMicrosoftWindowsHyper-VInitialStore.xml<br />
  • 10.
  • 11. Hyper-V et les réseaux<br />Passage d’un hub virtuel à un switch virtuel<br />
  • 12. Hyper-V et les réseaux (2)<br />3 non 4 types de réseaux virtuels<br />Externe<br />Interne<br />Privé<br />Dédié *<br />*http://blogs.msdn.com/robertvi/archive/2008/08/27/howto-create-a-virtual-swich-for-external-without-creating-a-virtual-nic-on-the-root.aspx<br />
  • 13. Caractéristiquesréseau Hyper-V<br />Parent Partition<br />Réseaux virtuels sont attachés à une connection<br />Externe/dédié – limité par le nombre de cartes NICs<br />Interne – pas de limite<br />Privé – pas de limite<br />Cartes Ethernet uniquement<br />Support des VLANs<br />Support de 802.1q (VLAN Tagging)<br />Support de 802.1p<br />Pas de support des interfaces sans fil<br />Machine virtuelle<br />Carte synthétisé “synthetic”<br />Carte émulé “legacy”<br />12 cartes par VM<br />8 synthétisés<br />4 émulés<br />Jusqu’à10Gb/s<br />Support des VLANs<br />
  • 14. Quel périphérique réseau pour quel usage ?<br />Les périphériques synthétisés ne sont pas basés sur un périphérique réel<br />Permet d’améliorer les performances ou l’ajout de nouvelles fonctionnalités de manière indépendante du matériel<br />Cartes réseau synthétisés<br />La carte réseau historique “DEC/Intel Ethernet card” est remplacée par “Microsoft Virtual Network Adapter”<br />Nécessite l’installation des services d’intégration<br />Les périphériques émulés sont nécessaires <br />Pour des raisons de compatibilité avec des systèmes anciens tels que DOS, OS/2 ou Windows NT/2000<br />A l’installation d’un nouveau système (boot PXE)<br />Pas de driver 64 bits pour les périphériques émulés<br />
  • 15. Routage entre réseauxvirtuels et NIC Teaming<br />Pas de fonctionnalité native de routage entre réseaux virtuels<br />Routage au travers d’une machine virtuelle<br />Windows RRAS<br />ISA Server<br />Un pont réseaux<br />LINUX<br />Pas de solution native Microsoft de NIC Teaming « in the box » (agrégation de cartes réseau)<br />Broadcom Advanced Server Program /Intel Advanced Network Services<br />S’assurer que la solution est conforme IEEE 802.3ad (nécessite des équipements réseau conformes)<br />
  • 16. Hyper-V et le stockage<br />Support du stockage sur DAS (Direct Attached Storage) (SATA, SAS), ou SAN (Storage Area Network) (FC, iSCSI).<br />Hébergé le système invité<br />Virtual Hard Disk – basé fichier, stocké sur un volume de stockage<br />Disque dynamique, ou disque fixe<br />Accès direct au disque physique– permet un accès direct au stockage à partir de la machine virtuelle<br />Disque doit être hors ligne (Offline) dans la partition parent<br />Périphérique de stockage synthétisé/émulé<br />Type de stockage<br />IDE – taille max 2 Go<br />Performance égale au SCSI<br />Doit être utilisé pour le boot du système d’exploitation <br />SCSI – périphérique synthétisé, nécessite les services d’intégration, 4 par invité avec jusqu’a 64 disques par contrôleur pas de limite de taille<br />iSCSI – doit être connecté sur le réseau physique, utilisation du client iSCSI, pas de limite dans le nombre des disque, support de l’ajout à chaud.<br />
  • 17. Applications<br />Fournisseur:<br />Windows<br />Windows Server2008 Hyper-V<br />ISV<br />User Mode<br />Windows File System<br />Volume<br />Partition<br />Disk<br />iSCSIprt<br />StorPort<br />Disk<br />StorPort<br />Miniport<br />Windows hypervisor<br />VMBus<br />Fast Path Filter (VSC)<br />Virtual Storage<br />Miniport (VSC)<br />Virtual Service<br />Provider (VSP)<br />VM Worker Process<br />Disque synthétisé<br />Partition parent <br />Partitions enfant<br />Kernel Mode<br />Hardware<br />
  • 18. Disqueémulé<br />Applications<br />User Mode<br />StorPort<br />Disk<br />Windows File System<br />Volume<br />Partition<br />Disk<br />StorPort<br />Miniport<br />Hyperviseur Windows <br />VM Worker Process<br />Partition parent<br />Partition enfant<br />Fournit par:<br />Windows<br />Windows <br />Virtualization<br />ISV<br />OEM<br />Kernel Mode<br />Hardware<br />
  • 19. Quelstockagechoisir ?<br />Meilleures performances sur la papier = Accès direct au disque sur du SAN puis sur de l’iSCSI)<br />Pas de snapshots<br />Mise en cluster plus difficile<br />LUNs doivent être pré-créées<br />Performance est proche des performance native<br />Alternative = VHDs on LUNs<br />Possibilité de snapshots<br />Mise en cluster simplifiée<br />LUNs doivent encore exister sur l’hôte<br />Performance “proche” du mode d’accès direct<br />
  • 20. Administration<br />Administration locale et à distance<br />RSAT pour Windows Vista<br />Outilsd’administration Windows 2008<br />Interface d’administration et API d’administration<br />Interfaces WMI (Virtualization WMI Provider http://msdn.microsoft.com/en-us/library/cc136992(VS.85).aspx)<br />Scripting via vbs ou Windows PowerShell<br />PowerShell Management Library for Hyper-V (BETA)<br />http://www.codeplex.com/PSHyperv<br />Un outil à connaitreHvRemote<br />http://blogs.technet.com/jhoward/archive/2008/11/14/configure-hyper-v-remote-management-in-seconds.aspx<br />http://code.msdn.microsoft.com/HVRemote<br />
  • 21. Sauvegarde et restauration (1/2)<br />Sauvegarde des VM en mode Snapshot<br />Indépendance du service VSS de la machine hôte<br />Indépendance du système d’exploitation au sein des machines virtuelles<br />Aucune interruption de service <br />Cohérence de l’état - Suite à une restauration, toute application en cours d’exécution est retrouvée dans l’état exact ou elle était à l’instant du snapshot<br />Portabilité - Déplacement des VM et des snapshots entre machines hôtes<br />Support de points de sauvegarde multiples<br />Possibilité de retour un snapshotspécifque<br />Possibilité de fusion de snapshots<br />Pas recommandé en production <br />
  • 22. Activer la prise en charge du writer Hyper- V avec Windows Server Backup <br />Créer la clé et la valeur string<br />HKEY_LOCAL_MACHINESoftwareMicrosoftWindows NT CurrentVersionWindowsServerBackupApplication Support{66841CD4-6DED-4F4B-8F17-FD23F8DDC3DE}<br />Name: Application Identifier Type: REG_SZ Value: Hyper-V<br />Vérifier la prise en charge du writer<br />Vssadmin list writers<br />PS : Windows Server Backup supporte uniquement la sauvegarde au niveau du volume, il faut donc sélectionner l’ensemble des volumes contenant les données de la VM<br />Correctifs à appliquer sur le hôte : KB956697 et KB959962<br />
  • 23. Importation/Exportation de machines virtuelles & Stockage<br />Pour importer une machine virtuelle, il faut l’avoir exporter<br />Exporter une VM avec des disques différentiels<br />Chaque VM récupère une copie complète de la chaine différentielle parente <br />Il n’est pas possible d’exporter une machine virtuelle avec un disque “ accès direct “<br />Mais car il y a toujours un mais…<br />http://blogs.technet.com/fabricem_blogs/archive/2009/01/25/d-placer-une-machine-virtuelle-d-un-h-te-hyper-v-vers-un-autre-ou-comment-restaurer-les-fichiers-d-une-machine-virtuelle-sur-un-autre-h-te.aspx<br />
  • 24. Disponibilité : scénario cluster<br />Heartbeat Network<br />NIC1 – 10.1.1.2<br />NIC1 – 10.1.1.3<br />NODE2<br />NODE1<br />NIC2 - 192.168.1.3<br />NIC2 - 192.168.1.2<br />PUBLIC LAN Connection<br />Contoso DC<br />192.168.1.1<br />iSCSI Target<br />600 MB Witness Disk<br />40 GB Data Disk<br />
  • 25. Bonnespratiques Hyper-V cluster<br />Installer les correctifs<br />KB article 952247, KB article 951308<br />S’assurer de le conformité dans le nommage des réseaux virtuels<br />S’assurer que les noms des interfaces réseau sont les mêmes sur chaque membre du cluster<br />Valider la configuration cluster<br />Lancer l’assistant de validation avant la création des machines virtuelles en cluster.<br />Utiliser des disques physiques dédiés <br />Attachement direct ou VHD sur LUNs<br />Dans la VM, utiliser des disques synthétisés<br />Optimiser le trafic réseau<br />Interfaces dédiées au trafic cluster et communication clientes.<br />
  • 26. Windows Server 2008Configurations matérielles<br />La limitation initiale à 16 cœurs au niveau des configurations matérielles supportées est repoussée à 24 cœurs<br />Lié à la disponibilité des processeurs Dunnington<br />Annonce officielle lors de lancement officiel début Septembre<br />Service Pack 2<br />Disponible premier semestre 2009<br />Intégration complète de Hyper-V<br />Plus de correctif à télécharger et installer pour activer la fonction<br />Pas d’évolution fonctionnelle au niveau de Hyper-V<br />
  • 27. Bonnes pratiques - DéploiementHyper-V<br />Connaître les besoins en terme de ressources des environnements à virtualiser<br />Processeur, mémoire, I/O et réseau<br />Consommation moyenne et maximale sur une période représentative<br />Installer les services d’intégration dans les VMs<br />Attention Windows Server 2008 dispose de la version RC<br />Mettre à jour via l’interface graphique<br />Installer le correctif kB 950050 dans la VM<br />Attention migration depuis VPC ou VS 2005<br />Faire tourner les VMs sans services d’intégration sur des hôtes séparés<br />Cartes réseau émulés altèrent les performances des périphériques réseau synthétisés.<br />
  • 28. Bonnes pratiques <br />Configurer les emplacements par défaut<br />Les VMs sont bien ou elles doivent être.<br />Réduit la complexité des sauvegardes.<br />Utiliser des disques de taille fixes<br />Attention en mode cluster associer idéalement une machine virtuelle par LUN <br />(Limitation nombre de LUN sous Windows 2008)<br />Utiliser plusieurs interfaces réseau sur l’hôte<br />Utiliser des interfaces distinctes pour l’administration<br />Utiliser des interfaces distinctes pour l’accès au stockage<br />Configurer l’affectation aux VLANs<br />Niveau parent ou invités<br />
  • 29. Bonnes pratiques<br />Arrêter les interfaces d’administration d’Hyper-V ou les connexions au VM (VMConnect) non utilisées.<br />Optimiser votre affichage<br />Configurer l’accélération matériel sur meilleure performance<br />Configurer l’Anti-virus <br />Mettre des exclusions sur les processus VMSWP.EXE, VMWP.EXE et VMMS.EXE<br />Ne pas surveiller les répertoires avec les fichiers de configuration et disques des VMs.<br />
  • 30. Bonnes pratiques mise en œuvre Hyper-V et contrôleur de domaine<br />Ne jamais mettre en pause ou en état sauvegardé (save state) un contrôleur de domaine (DC)<br />Risque d’incohérence dans la synchronisation au niveau du domaine<br />Toujours arrêter (Shutdown) un DC<br />Ne jamais faire de snapshot d’un DC<br />Le processus met en pausela VM <br />Attention à la synchronisation horaire par défaut entre l’hôte et la VM, la désactiver si nécessaire. <br />
  • 31. Scenario de migrationVPC/ Virtual Server vers Windows Server Hyper-V<br />La pérennité du format VHD permet une migration naturelle depuis la plateforme Virtual Server vers Windows Server Hyper-V<br />Suppression des VM additions avant migration<br />Nécessite une détection de la HAL si machine virtuelle Windows Vista ou Windows Server 2008<br />Installation des Services d’Intégrationdans la VM<br />Hyper-V<br />VPC/Virtual Server 2005<br />
  • 32. Hyper-V au Microsoft Technology Center Paris<br />Témoignage<br />
  • 33. Accélérer vos choix avec le MTC!<br />Démarche structurée d’engagement client: ADS, POC, Benchmark<br />Expertise solutions et partenaires<br />100 serveurs, 50To, géocluster 700km<br />Gestion du Datacenter<br />Virtualisation, Datacenter dynamique<br />Gestion de données<br />Applications critiques<br />Geocluster SQL<br />Migration & replatforming<br />
  • 34. Spécificités du MTC<br />Infrastructure pour déployer et héberger les POC clients, accès internet, controleur de domaine, serveurs ISA-SCCM-SCVMM-EX, gestion du SAN&LAN…<br /><ul><li>8 serveurs, robustesse, garantir la QOS des POC</li></ul>Infrastructure pour héberger les démonstrations<br /><ul><li>15 infrastrutures complexes, utilisation à la demande</li></ul>Plateformes de POC<br /><ul><li>Étude de faisabilité, benchmark de montée en charge
  • 35. En moyennes, 15 serveurs pendant 3 semaines, VLAN dédié
  • 36. Reconstruction permanente des configurations
  • 37. 8100 visiteurs, 80 benchmarks par an</li></li></ul><li>Consolidation de serveurs<br />Motivations<br />Optimisation du parc (augmentation de la densité)<br />Industrialisation de l’exploitation<br />Enjeux<br />Mutualisation des risques<br />Prédictibilité des temps de réponses<br />Solutions<br />Consolidation applicative (web, bases et instances SQL)<br />Virtualisation Windows Server 2008 Hyper-V<br />
  • 38. Points mis en évidenceAutomatisation de l’administration<br />P2V<br />Utiliser SCVMM<br />RAM = Facteur limitatif <br />VLAN Trunking au niveau des VMs<br />Upgrade VPC vers Hyper-V<br />Installer le KB 950050 dans les VMs <br />Standardisation de l’administration<br />Combinaisonidéale: Cluster + SCVMM + SCOM<br />
  • 39. Points mis en évidenceCluster<br />Mise en cluster systématique<br />Amélioration de la QOS<br />Quick Migration pour les opérations de maintenance<br />Basculer des groupes de VM cohérentes, impact surl’organisation du SAN<br />Cluster multi-constructeurs<br />Respecter la cohérence INTEL/AMD<br />Limitation: Haute Disponibilitéuniquement (pas de save state mais shutdown/reboot)<br />
  • 40. Points mis en évidenceOptimisation du stockage<br />-50% au niveau du stockage<br />Déduplication SAN (fonctionnalitéNetApp)<br />Adapté aux VMs stables et au VHD-disquessystèmes<br />AD<br />IIS<br />Démonstrations<br />Référentiels<br />Pour les VHD de data/log de SQL ou Exchange, utiliser la compression interne du moteur<br />
  • 41. Points mis en évidence Stockage et Performances<br />SAN<br />FileServer<br />LUN 2<br />S:<br />LUN 1<br />LUN 3<br />SHARE1<br />Hyper-V<br />ChildPartition<br />ParentPartition<br />CIFS/SMB/SMBv2<br />DAS<br />iSCSI<br />FC or iSCSI<br />FC or iSCSI<br />X:V1V1.VHD  VHD1<br />VHD1  C:<br />Disk1  X:<br />Disk2  D:<br />Disk2<br />pass-through<br />Y:V2V2.VHD VHD2<br />VHD2  E:<br />LUN 1  Y:<br />LUN 2  F:<br />LUN 2<br />pass-through<br />LUN 3  G:<br />SSHARE1V3V3.VHD  VHD3<br />VHD3  H:<br />SSHARE1<br />
  • 42. Points mis en évidencePerformances<br />Les VM inactives consomment peu de CPU<br />Overhead de virtualisation maitrisé<br />Entre 7 et 10% de dégradation des temps de réponse<br />15% de CPU par VM consommé en supplément<br />Bonsdébits IO pour les disques et le réseau<br />Augmenter les ressourcesdédiées (LUN, carte…)<br />Limiter l’usage du iSCSI initiator dans la VM (CPU+)<br />
  • 43. Points mis en évidencePerformances<br />Bonne scalabilité<br />80+ VMs à 1VP pour 32 cores<br />Réserver les VM à 4VP pour les environnements faiblement chargés<br />
  • 44. Résultats obtenus avec Hyper-V<br />Réduction de 30 à 8 serveurs pour la Production_MTC + 15 environnements de Démo<br />-22 serveurs<br />-50% de stockage<br />-20% d’électricité<br /><ul><li>Absorder les nouvelles demandes sans Watt en +</li></ul>Amélioration de la sécurité (failover cluster)<br />Réduction de la bande passante de l’équipe par l’automatisation de l’administration<br /><ul><li>Hyper-V est un accélérateur de consolidation</li></li></ul><li>Hyper-V V2<br />R2<br />R2<br />
  • 45. Hyper-V V2<br />Améliorer la plate forme de virtualisation Hyper-V en intégrant les dernières évolutions technologiques et en s’ouvrant vers de nouveaux scénarios<br />4 axes d’amélioration<br />Disponibilité des machines virtuelles<br />Les performances<br />L’administration<br />Scénario Virtualisation du poste de travail<br />
  • 46. Disponibilité - Live Migration<br />La fonctionnalité la plus demandée par nos clients ayant participé aux différents programmes d’évaluation et d’adoption<br />Déplacer une machine virtuelle d’un serveur hôte vers un autre sans interruption de service <br />Pas de perte des connexions réseaux<br />Baséesur le service Failover Clustering et le volume cluster partagé<br />Mise en oeuvre (Migration de Quick à Live Migration)<br />Modifications des VMs: Non<br />Modifications de l’architecturestockage: Non<br />Modifications de l’infrastructure réseau: Non<br />Mise à jour vers Hyper-V 2.0: Oui<br />
  • 47. Quick Migration vs. Live Migration<br />Live Migration<br />(Windows Server 2008R2 Hyper-V)<br />Transfert de l’état mémoire de la VM<br />Création de la VM sur la cible<br />Transfert des pages mémoire de la source à la cible via réseau<br />Transfert de l'état final et restauration du contexte de la machine virtuelle<br />Mise en pause de la machine virtuelle<br />Déplacement de la connectivité du stockage de l’hôte source vers celui cible<br />Un-pause & execution<br />Quick Migration<br />(Windows Server 2008 Hyper-V)<br />Sauvegarde du contexte de la VM<br />Création de la VM sur l’hôte cible<br />Ecriture de la mémoire sur le stockage partagé<br />Bascule de la machine virtuelle<br />Déplacement de la connectivité du stockage de l’hôte source vers celui cible<br />Restauration du contexte de la VM<br />Restauration de la mémoire de la VM depuis le stockage partagé<br />Execution de la VM<br />Hôte 2<br />Hôte 1<br />Hôte 1<br />Hôte 2<br />
  • 48. Live Migration - phase 1: Initialisation<br />Création d’une connexion TCP entre les hôtes sources et destination<br />Transfert de la configuration de la VM configuration vers le serveur de destination<br />Création d’un squelette de la VM sur le serveur de destination<br />Données de configuration<br />.VHD<br />.VSV<br />Hôte Source<br />Hôte Destination<br />.BIN<br />.XML<br />Stockage<br />
  • 49. Live Migration - phase 2: Transfert de la mémoire<br />Transferts le contenu de la mémoire de la VM du server the content of the VM’smemory to the destination host<br />Tracking des pages modifiées par la VM, retransfers de ces pages <br />Pause la VM avant la phase de transfert final<br />Mémoire de la VM<br />.VHD<br />.VSV<br />Hote Source<br />Hôte Destination<br />.BIN<br />.XML<br />Stockage<br />
  • 50. Live Migration – phase 3 : Transfert de l’état et restauration de la VM <br />Sauvegarde l’état de la VM (registres et périphériques) sur l’hôte source<br />Transfert l’état sauvegardé et l’«ownership » sur le stockage vers l’hôte de destination<br />Restaure la VM de l’etatsauvagardé sur l’hote de destinantiont<br />Nettoie la VM sur l’hôte source<br />Etat<br />sauvegardé<br />.VHD<br />.VSV<br />Hôte Source<br />Hôte Destination<br />.BIN<br />.XML<br />Stockage<br />
  • 51. Le cluster de basculement aujourd’hui<br />Depuis son origine Windows Server Failover Cluster implémente un modèle de stockage “sharenothing”<br />Dans ce modèle chaque disque est la propriété d’un unique nœud à chaque instant, seul ce nœud est capable d’effectuer des I/O sur le disque<br />Un seul nœud peut accéder à un LUN à un instant<br />SAN<br />Stockage partagé<br />
  • 52. Possible grâce à l’évolutions des services de cluster dans Windows Server 2008 R2<br />
  • 53. Cluster Shared VolumeAperçu<br />Accès distribué aux fichiers coordonné via un nœud<br />VM effectuant des I/O directes<br />Volume monté sur un nœud<br />SAN<br />Disque<br />Volume unique<br />VHD<br />VHD<br />VHD<br />
  • 54. Disponibilité - Ajout/suppression à chaud du stockage<br />Ajout et suppression de disques au format VHD ou accès direct (disques passthrough) à une VM en fonctionnement sans besoin de reboot<br />S’applique aux disques attachés à un contrôleur virtuel SCSI<br />Bénéfices<br />Augmentation du volume de stockage sans interruption de service<br />Scénario Sauvegarde <br />Scénarios SQL/Exchange<br />
  • 55. Live Migration<br />Haute Disponibilité<br />Demo<br />
  • 56. Hyper-V 2.0 performances<br />Support processeur logique<br />Support de 32 processeurs logiques sur la machine hôte <br />Second Level Translation (SLAT)<br />Utilisation des fonctionnalités processeurs pour améliorer les performances et réduire la charge de l’hyperviseur<br />Intel - Extended Page Tables (EPT)<br />AMD - Nested Page Tables (NPT) /Rapid Virtualization Indexing (RVI)<br />Consommation CPU Hyperviseur diminue de 2 %<br />Gain de 1Mo de mémoire consommé par VM<br />Réseau<br />Virtual Machine Device Queues (VMdQ)<br />TCP Offload<br />Jumbo Frames<br />
  • 57. Gestion de la mémoire VM<br />Aujourd’hui, les processeurs fournissent un niveau de translation d’adresses mais l’hyperviseur en a besoin de deux<br />Guest Virtual Address<br />Guest Virtual Address<br />OS invité prend en charge le mappings GVA-vers-GPA<br />Shadow page tables combine ces 2 niveaux mappings dansune unique table de translation<br />Overhead : 10 % de la CPU<br />Guest Physical Address<br />Hyperviseurprend en charge les mappings GPA-to-SPA<br />System Physical Address<br />System Physical Address<br />
  • 58. Hyper-V V2 – gestion de l’energie<br />Windows Server 2008 R2 prend en charge le Core Parking<br />Faire en sorte d’optimiser l’utilisation de chaque processeur<br />Mise en sommeil “park/sleep” des coeurs<br />Bénéfices<br />Réduire la consommation électrique “c’est bien pour la planète et le portefeuille ”<br />
  • 59. Windows Server 2008 –Serveur 16 "cores"<br />
  • 60. Windows Server 2008 R2 Core Parking- Serveur "16 cores"<br />Processor is “parked”<br />Processor is “parked”<br />
  • 61. Collaboration Intel - Microsoft<br />Intel® VT “Temps de latence transition” Intel Xeon®<br />Réduction des temps de latencedans la transition de VMs<br />Intégrationdans Hyper-V de la gestionde consommationélectrique CPU<br />2007<br />2004<br />2008<br />2006<br />2005<br />Optimisation du <br />Scheduler Hyper-V<br />Round-trip Intel® VT transition latency <br />Intel® VT améliore de manièresignificative<br />les performances d’Hyper-V<br />
  • 62. Intégration de l’approche<br />virtualisé Intel<br />Microsoft QuickMigration Hyper-V<br />Intel® VT-x<br />Intel® VT For Directed I/O (Intel® VT-d)<br />Intel® VT For Connectivity <br />(Intel® VT-c)<br />Processeur<br />Chipset<br />Réseau<br />Nouvelle génération de serveur DP<br />Nehalem (Xeon 5500)<br />Lancementofficiel le 2 avril<br />
  • 63. Hyper-V V2 - Administration<br />Hyper-V Manager<br />Possibilité de créer un réseau virtuel « dédié »<br />Fonctionnalités apportées par Windows 2008 R2 et Windows 7<br />Démarrage sur VHD – Unifier les images http://blogs.technet.com/fabricem_blogs/archive/2009/01/13/boot-sur-vhd-quelques-explications-et-exemples.aspx<br />Monter/démonter un disque VHD directement au niveau du gestionnaire de disque ou en ligne de commande diskpart<br />
  • 64. Ajout de disque à chaud et manipulation disque VHD<br />demo<br />
  • 65. Virtualisation du poste de travail<br />Répondre au besoin de postes de travail virtualisés, en proposant une solution de provisionning, d’accès et de gestion s’appuyant sur Hyper-V et Remote Desktop Services<br />Infrastructure unique pour la découverte et la publication de ressources (applications (RDS) ou poste de travail (Hyper-V))<br />Améliorer l’expérience utilisateur <br />Expérience multimédia riche, intégration VoIP , Aero Glass Remoting, support multi-moniteurs<br />Scenarios de déploiement<br />Assignation temporaire (jusqu’au logoff) de la VM par utilisateur<br />Assignation permanente de la VM pour un utilisateur<br />
  • 66. Virtualisation des postes de travail et Hyper-V V2<br />RDS Gateway<br />RDS Session Broker<br />Utilisateurs<br />RDS externes (distant)<br />Ferme RDS <br />serveurs<br />Stockage<br />Utilisateurs<br />postes de travail <br />hébergés(Remote)<br />Ferme<br />Hyper-V serveurs<br />Utilisateurs RDS<br />Utilisateurs<br />postes de travail <br />hébergés<br />
  • 67. Mise à dispostion de postes de travail virtuels<br />demo<br />
  • 68. Hyper-V Server V2 (Beta)<br />Support de la Live Migration: <br />Donc de la mise en cluster  !!<br />Processeur et mémoire <br />Support de 32 processeurs logiques <br />Microsoft Hyper-V Server 2008 R2 Beta supporte jusqu’à 1To de RAM sur le système physique <br />Utilitaire de configuration Hyper-V amélioré:<br />Configuration administration à distance<br />Configuration FailoverClustering<br />Options supplémentaires pour les “Mises à jour”<br />
  • 69.
  • 70. Questions / Réponses<br />
  • 71. Autres sessions à ne pas manquer !!<br />Administration centralisée des infrastructures de virtualisation<br />Le mercredi 11 février 2009, 16H00- 17H00. <br />La virtualisation du poste de travail au datacenter<br />Le mercredi 11 février 2009, 17H30- 18H30. <br />Virtualisation et sécurité  <br />Le jeudi 12 février 2009, 13H00 - 14H00. <br />Comment mener votre projet de consolidation de serveurs via les solutions de Virtualisation Microsoft  <br />Le jeudi 12 février 2009, 13H00 - 14H00. <br />Haute disponibilité en environnement Windows Server : bonnes pratiques et principales évolutions au sein de Windows Server 2008 R2  (OPT306) <br />Le jeudi 12 février 2009, 14H30 - 15H30. <br />
  • 72. Votre potentiel, notre passion TM <br />© 2009 Microsoft Corporation. All rights reserved. Microsoft, Windows, Windows Vista and other product names are or may be registered trademarks and/or trademarks in the U.S. and/or other countries.<br />The information herein is for informational purposes only and represents the current view of Microsoft Corporation as of the date of this presentation. Because Microsoft must respond to changing market conditions, it should not be interpreted to be a commitment on the part of Microsoft, and Microsoft cannot guarantee the accuracy of any information provided after the date of this presentation. MICROSOFT MAKES NO WARRANTIES, EXPRESS, IMPLIED OR STATUTORY, AS TO THE INFORMATION IN THIS PRESENTATION.<br />

×