.: Michael Korp :.

Rund um die Windows Plattform, Systems Management und Virtualisierung

January, 2009

The best way to predict the future is to invent it.
(Alan Kay)
Artikel
  • Erfolgreich mit neuen Produkten –aber wie?

    Der Anlass ist zwar Windows 7 / Windows Server 2008 R2 mit der seit kurzem veröffentlichten Beta, aber grundsätzlich betrifft das auch viele andere Produkte: Wie kann man gerade bei neuen Versionen existierender Produkte oder neuen Produkten sicher sein, dass man einerseits benötigte Informationen bekommt und frühzeitig testen kann, andererseits bei gegebenenfalls auftauchenden Problemen während der Pilotierung aber auch Unterstützung bekommt?

    Größere Unternehmen haben es hier häufig leichter, weil sie vermutlich eine “intensive” Betreuung über Beratungs- und Wartungsverträge genießen. Viele kleinere Unternehmen oder auch Partner haben hier häufig begrenztere Möglichkeiten. Daher gibt es gerade für diese mit dem IT-Pro Momentum Programm eine Lösung. Im Rahmen von Projekten, wird hier vieles bereitgestellt, was hilft frühzeitig erfolgreich zu sein.

    Windows 7 und Windows Server 2008 R2 wurden gerade zu den verfügbaren Produkten hinzugefügt und stehen damit für die Auswahl bei Projekten zur Verfügung.

    Das Programm selbst ist nicht neu – auch ich habe schon früher darüber einen Artikel geschrieben, aber manchmal muss man auch schon länger existierendes wohl nochmal “ankündigen”. Wessen Interesse jetzt geweckt wurde, muss nur mich oder einen meiner Kollegen informieren, denn der Zugang geht nur über eine Nominierung durch uns…

  • Windows 7 und Windows Server 2008 R2

    Kein Sorge, ich bin jetzt nicht der nächste, der verkündet “Sie sind da, sie sind da…”. Auch nicht “Es ist so toll, alles wird jetzt gut!”

    Erstaunlich, was da so letzte Woche passiert ist – Beschwerde über Beschwerde, weil der Download nicht in 15min abgeschlossen war, sondern mehrfach abbrach. Und das, obwohl doch jeder der erste sein wollte – es gibt ja immerhin das angekündigte 2,5 Millionen Limit und wer will schon der erste sein, der zu spät kommt.

    Ich sag nur: Wohl dem, der ein TechNet (oder MSDN) Abo hat. Die fallen nämlich nicht darunter. Da kommt es doch gerade sehr praktisch, dass man noch bis zum 30.6.2009 gleich 20% sparen kann… (Promocode: TNPAN09)

    Hat eigentlich irgendwer wahrgenommen, dass die Downloads offiziell erst ab Freitag verfügbar sein sollten? Dummerweise dauern die Prozesse der Bereitstellung auf vielen Servern etwas länger, so dass die Befüllung dieser merklich früher startet und daher auch die Links schon aktiv waren. Ein paar Stunden später war also der ganze Spuk wieder vorbei, die Downloads funktionierten reibungslos und auch die Ausgabe der Schlüssel erfolgte auf “Knopfdruck”. Wohl dem, der geduldig ist…

    Da ich mich ja im Schwerpunkt mit der Verwaltung von Systemen und dem Deployment beschäftige – neben der Virtualisierung natürlich – sind für mich auch die ganzen anderen Downloads wichtig, die erfreulich zeitnah zur Beta des Betriebssystems verfügbar waren.

    Wsentlich ist dort erst einmal das Windows Automated Installation Kit, da es die ganzen grundlegenden Verteilwerkzeuge enthält. Hier gibt es auch einige Änderungen der Werkzeuge – einige sind weggefallen und werden durch das neue dism.exe ersetzt. Daher gibt es auch ein notwendiges Update des Microsoft Deployment Toolkit, die MDT 2010 Beta. Da die wenigsten Administratoren immer vor Ihrem Server sitzen, sind auch die Remote Server Administration Tools durchaus wichtig…

  • Ein frohes Neues…

    Wie schnell doch die Zeit vergeht – nicht nur, dass wieder ein Jahr vorbei ist, sondern auch das Jahr 2009 selbst empfindet man (ich) schon fast nicht mehr als neu – und das, obwohl ich gerade mal den zweiten Tag wieder aktiv arbeite…

    In dem Sinne also: Ein frohes und erfolgreiches Jahr 2009.

  • Virtualisierung – Server Rollen und “Spielregeln”

    Anlass für diesen Post ist erst einmal ein relativ neuer TechNet Artikel: “Running domain controllers in Hyper-V”.

    Eigentlich nichts besonderes – sollte man meinen. Wie meistens lauern aber auch hier ein paar Fallen im klassischen Detail. Nicht jeder trifft diese auch in seiner Umgebung, aber es kann halt passieren…

    Zwei “simple” Beispiele: Zeitsynchronisation und Zeitzonen oder “Save State” und Löschen von Objekten im AD mit Tombstoning.

    Virtuelle Maschinen haben keine batteriegepufferte Echtzeit Uhr. Daher initialisiert der Host beim Start einer VM die Uhr auf seine lokale Zeit und hält sie da auch, wenn man das nicht abschaltet. Wichtig ist hierbei, dass die Synchronisation nicht auf Basis der UTC passiert, sondern der lokalen Zeit.

    Save State, Backup und Restore sind weitere Themen, die behandelt werden müssen, da Active Directory als Multi-Master fähiges System hier bestimmte Regeln erfordert. Aber, bevor ich alles hier schreibe, kann man es ja auch jederzeit im Artikel online nachlesen…

    Ein weiteres wichtiges Thema, was sich in vielen Fragen widerspiegelt, ist die Dimensionierung bzw. Skalierung der Systeme für virtuelle Arbeitslasten. Letztens kam z.B. die Frage: Wenn ich ein Acht-Wege System mit Windows 2000 virtualisiere, wird das schnell genug funktionieren? Pauschal lässt sich das leider nie beantworten.

    Frage: Geht das überhaupt und wird es auch unterstützt (von uns).

    Antwort: In einer eins-zu-eins Umsetzung auf jeden Fall nicht…

    Aktuell kann man einer virtuellen Maschine maximal vier Rechenkerne/CPUs zuordnen, ein Blick in die “Supported Configurations” beantwortet hier die Zusammenhänge zwischen Anzahl CPUs und installierter Windows Version – nicht alles, was ginge, wird von uns auch unterstützt, weil es z.B. bekannte Probleme in einzelnen Fällen gibt, die zu Einschränkungen führen. Auf der anderen Seite ist der bestehende Server bestimmt schon etwas älter, man bekommt also heute vermutlich mit weniger CPUs mehr oder vergleichbare Leistung. Außerdem skalieren heutige Windows Server erheblich besser bei mehreren CPUs als früher. Quintessenz: Man muss selber testen, ob man innerhalb der existierenden Grenzen die geforderte Leistung in so einem Fall erhält.

    Bei vielen Frage, sei es Skalierung oder auch der Verwaltung lautet einer meiner “Standardsprüche”: “Ein virtueller Server ist in erster Linie… Genau: Ein Server!” Soll heißen, auch, wenn die Virtualisierung manches vereinfacht und optimiert, mache ich keinen Fehler, wenn ich die Maßstäbe eines entsprechenden physischen Servers zu Grunde lege. Das gilt auch für die Skalierung, z.B. bezüglich Arbeitsspeicher, Netzwerk und “Fest”platten. Wer seinem physischen Server für eine bestimmte Arbeitslast mehrere Volumes mit jeweils mehreren Spindeln zukommen lassen würde, darf nicht versuchen, dem virtuellen Server mehrere VHDs zuzuordnen, die alle auf der gleichen (großen) Spindel liegen. OK, das ist ein Extrem, soll aber nur das Prinzip verdeutlichen.

    Auch bezüglich der Zuweisung von CPU Ressourcen gelten ähnliche Regeln – im wesentlichen muss man die Anforderungen der Arbeitslast kennen oder messen. Management Produkte wie der System Center Operations Manager (oder System Center Essentials in kleineren Umgebungen) liefern hier wertvolle Daten über existierende Server und Services. Virtuelle Maschinen mit den jeweils konfigurierten CPUs sind aus Sicht des Host einfach nur Threads, die auf die physischen CPU Kerne je nach Lastanforderungen und Systemkonfiguration verteilt werden. CPU intensive Arbeitslasten erfordern daher ggf. eine Planung mit einer 1:1 Zuordnung (Planung, nicht Zuweisung!), während andere Lasten mit 4:1 oder sogar (maximal) 8:1 eingeplant werden können.

    Auch der Netzwerkbereich sollte sorgfältig “vermessen” und geplant werden. Hyper-V erzeugt virtuelle Switches, an den die virtuellen Maschinen mit einem virtuellen 10GB Adapter angebunden sind. Die “10GB” sind aber nur Adapter “Bezeichnungen”, da “normale” Netzwerkadapter an einem physischen Medium immer eine feste Datenrate habe. In der virtuellen Welt hängt der effektive Durchsatz aber auch von der verfügbaren Rechenleistung des Host ab. Untereinander auf dem gleichen Host können virtuelle Maschinen also sehr schnell kommunizieren – was man ggf. auch bei der Planung von Clusterressourcen berücksichtigen sollte. Mit der Außenwelt wird dann aber über den physischen Adapter kommuniziert, der dann wieder von allen VMs am entsprechenden virtuellen Switch geteilt wird. Mehrere “dedizierte” Adapter im Host können hier einen großen Vorteil bedeuten, auch, wenn dadurch die “interne” Kommunikation über eine externe Schnittstelle erfolgt. Gegebenenfalls sind hier auch mehrere Adapter in der VM sinnvoll, wobei auch Multihoming wieder verstanden sein will…
    Auch neue Technologien sind hier wichtig zu berücksichtigen. Die nächste Version des Hyper-V (Bestandteil des kommenden Windows Server 2008 R2) wird hier die Virtualisierung in den (neuen) Netzwerkkarten unterstützen, die (aktuell) bis zu vier Warteschlangen (Queues) auf den Adaptern verwaltet, die dann einen direkten DMA in die VM ermöglichen können, ohne dass die Daten erst durch den Host geschleust werden müssten.

    Einige Stichworte, aber ich hoffe hiermit Anregungen gegeben zu haben, virtuelle Systeme erfolgreich zu planen und zu betreiben. Dokumentiert ist eigentlich (fast) alles, man muss es nur wissen und danach auch finden…