Unser Hyper-V Powerkurs in neuem Design.
Wir betreiben unsere Hyper-V Schulung mit dem Namen Hyper-V Powerkurs nun schon einige Jahre.
Angefangen haben wir mit Hyper-V unter Windows Server 2008 R2 im Jahr 2011. Seitdem haben wir den Kurs mehrfach erweitert, die großen Änderungen sind natürlich die Updates auf Windows Server 2012 und danach auf Windows Server 2012 R2. Im Laufe der Zeit hat sich selbstverständlich nicht nur der Kurs in Form der Themen geändert, sondern es ist auch neue und erweiterte Hardware hinzugekommen. Angefangen haben wir damals mit acht Schulungssystemen, die ich hier im Blog ja bereits mehrfach beschrieben habe.
Später hinzugekommen sind vier weitere Systeme, somit haben wir aktuell die Möglichkeit unsere Schulung mit bis zu zwölf Teilnehmern bei uns im Hause durchzuführen.
Die Hardware in den Anfängen
Die Rechner hatten von Anfang an einen Vier-Kern-Prozessor, 24 GB Arbeitsspeicher, drei SSDs und sechs 1GbE Ports. Die Anbindung erfolgte per Gigabit Ethernet-Verbindung, als Storage wurde eine NetApp 6040 als iSCSI-Storage genutzt. In diesem Aufbau haben wir im Laufe der fünf Tage mit jeweils zwei oder drei Teilnehmern, je nachdem ob wir eine gerade oder ungerade Anzahl an Teilnehmern hatten, ein Failover Cluster aufgebaut. Jedes Failover Cluster hatte mehrere iSCSI LUNs, die als Quorum und als CSV-Datenträger genutzt wurden.
Weg mit iSCSI, herbei mit SMB3
Mit dem Release von Windows Server 2012 und der Einführung von SMB3 haben wir dann über einen längeren Zeitraum überlegt, in welcher Form wir den Storage für unsere Failover Cluster anbinden. Nach einem Update der NetApp-Firmware war auch die Nutzung von SMB3 möglich, allerdings nicht mit allen Funktionen und Möglichkeiten. Neben dieser Überlegung hatten wir den zusätzlichen Wunsch, dass die Geschwindigkeit im Storage-Netzwerk auf 10 GbE angehoben wird.
Unser Anspruch an den Kurs ist ein möglichst realistisches und optimiertes Szenario zeigen zu können. Da zu diesem Zeitpunkt schon einige Kunden mit 10 Gb/s gearbeitet haben oder eine Migration auf diese Geschwindigkeit andachten, mussten wir an dieser Stelle ebenfalls optimieren. Aus diesem Grund haben wir in jedes der Systeme eine Intel X540-T2 NIC eingebaut. Diese Dual-Port-Karte bietet zwei 10 GbE Ports, somit standen für jeden Rechner eine Bandbreite von 2x 10 Gb/s plus 6x 1 Gb/s zur Verfügung.
Mit Hilfe von teilweise bis zu 30m langen Cat6a – Kabeln haben wir die PCs dann an zwei 24-Port 10 Gb/s-Switches angebunden. Für alle Rechner zusammen hätte auch eine Switch ausgereicht, dann hätten wir allerdings keine weiteren Systeme (Storage, AD-Controller, Dateiserver) mehr einbinden können. Somit also direkt zwei, so lässt sich auch eine Redundanz über beide Geräte zeigen und konfigurieren. Da 10 GbE-Switches jedoch recht laut sind, wurde ein Teil vom kompletten Schulungsraum abgetrennt und isoliert. Und da wir schon dabei waren, haben wir auch direkt den restlichen Schulungsraum gepimpt. Begonnen bei der Ausstattung mit neuen, eigens für unsere speziellen Bedürfnisse vom Schreiner angepassten Tische. Nun hat jeder Teilnehmer ausreichend Platz zum arbeiten und lernen, jeweils eine Steckdose auf dem Tisch — für das Handyladergerät oder ein Notebook-Netzteil. Zusätzlich hat jeder sein eigenes Schulungssystem (Monitor, Maus und Tastatur, der eigentliche PC steht unterm Tisch). Nachdem wir sowohl unseren Schulungsraum als auch die PCs aufgerüstet haben, war der Storage an der Reihe.
Da wir ja bereits seit Windows Server 2012 auf den Scale-Out File Server setzen war ziemlich schnell klar, dass wir solch einen Aufbau ebenfalls in unsere Schulung aufnehmen. Wir haben zwei Server und ein JBOD mit Festplatten angeschafft; welches nun während des Kurses gemeinsam mit den Teilnehmern direkt ab Neuinstallation eingerichtet und installiert wird.
Nach der Einrichtung, die meist gegen Mitte der Woche stattfindet, wird dieses System für den restlichen Kurs als hochverfügbarer Speicher genutzt. Die Server hatten zum damaligen Zeitpunkt ebenfalls jeweils eine Intel X540-T2 NIC, zwei 1 GbE NICs und einen Quad
-Port-SAS HBA zur Anbindung des JBODs. In dem JBOD befanden sich 15x 1TB große NLSAS Festplatten. Mit diesem Aufbau haben wir schon einige Kurse durchgeführt.
Bereits in der Preview-Phase von Windows Server 2012 R2 haben wir unseren Kurs auf die Version 3 geupdatet und die Neuerungen mit aufgenommen, die gegenüber des ersten Releases eingebracht wurden. Zu diesem Zeitpunkt hat sich an der Ausstattung der PC-Hardware nicht viel geändert (Ein Mainboard ist kaputt gegangen und musste getauscht werden; außerdem haben wir vier 1GbE in Form einer Quad-Port-Karte ausgebaut, da wir diese in unserer aktuellen Konfiguration nicht mehr benötigen); da die Voraussetzungen nahezu die gleichen sind. Was sich allerdings geändert hat, ist die Ausstattung unseres JBODs. Da mit Windows Server 2012 R2 die Mischung von SSDs und HDDs zur Steigerung der Performance eingeführt wurde (Tiering), haben wir unseren Scale-Out File Server um insgesamt fünf 200 GB große SAS SSDs erweitert.
Die Einführung von RDMA
Da wir bereits in der Preview-Phase von Windows Server 2016 sind und vermutlich in den kommenden Monaten unseren Hyper-V Powerkurs auf seine vierte Version updaten, haben wir erneut eine Anpassung der Hardware vorgenommen. Jedes Schulungssystem hat eine weitere NIC bekommen: Eine Dual-Port 10 GbE Netzwerkkarte von Emulex, welche unter Anderem RDMA (Remote Direct Memory Access) beherrscht. Dank dieser Technik haben wir die Möglichkeit Daten zwischen den Hyper-V Hosts und dem Scale-Out File Server performant, mit einer sehr geringen Latenz und ohne eine Belastung der CPU zu übertragen. Diese Eigenschaften machen sich übrigens auch bei einer Migration von VMs zwischen den Hosts positiv bemerkbar.
Für alle, die gerne mehr technische Details zu den Karten haben möchten:
Es handelt sich um die Karte OCE14102-NT von Emulex, der Hersteller listet die Karte hier auf. Die Karte unterstützt RDMA in der RoCE (RDMA over Converged Ethernet) – Variante, weitere hilfreiche Features sind: Unterstützung von dVMQ, VLAN-Support (was übrigens Pflicht bei der Nutzung von RDMA ist), bis zu 512 Hardware Queues, SR-IOV mit bis zu 63 VF (Virtual Functions) und noch einiges mehr. Für uns von Vorteil ist, dass die Karte (so wie die Intel-Karten auch) mit Kupferkabeln verarbeitet sind und wir so die vorhandene Verkabelung nicht austauschen müssen.
Die Karte selbst wird bei der Installation des Windows Server nicht direkt vollständig mit Treibern ausgestattet, sondern es müssen die Emulex-Treiber in der aktuellen Version noch eingespielt werden. Nach der Installation stehen alle Funktionen und Konfigurationsmöglichkeiten zur Verfügung, die Erweiterungen seitens Emulex in den Eigenschaften der Karte machen einen sehr aufgeräumten Eindruck, so dass die gewünschten Einstellungen schnell gefunden werden.
Zukunftssicher auch mit Windows Server 2016
Wir arbeiten bereits in unserer eigenen Test-Umgebung mit der Preview-Version des Windows Server 2016, teilweise haben wir auch schon Präsentationen gehalten (z.B. auf unserem System Center Universe Satellite-Event im Juni haben Carsten und ich über die Neuerungen in WS2016 gesprochen), bei dem die Preview-Version zum Einsatz kam. Sobald wir unseren Kurs auf eine neue Version und somit dem Thema Hyper-V unter Windows Server 2016 aktualisieren, sind unsere Schulungsrechner schon perfekt ausgestattet. Für jeden Rechner stehen insgesamt 42 Gb/s zur Verfügung: 2x 1 Gb/s, 2x 10 Gb/s non-RDMA und 2x 10 Gb/s RDMA.
Mehr Informationen zu unserem Hyper-V Powerkurs gibt es auf unserer neu gestalteten Kurs-Webseite www.powerkurs.net: