.: Michael Korp :.

Rund um die Windows Plattform, Systems Management und Virtualisierung

November, 2010

The best way to predict the future is to invent it.
(Alan Kay)
Artikel
  • Stichwort Deployment – brauche ich das überhaupt noch?

    Viele Gespräche rund um die zukünftige Desktop Strategie drehen sich um das Thema Virtualisierung. Dahinter steht häufig die Erkenntnis, dass Desktop Deployments und Migrationen als komplex, aufwändig und teuer wahrgenommen werden. Virtualisierung auf zentral bereitgestellte Server scheint da die einfache Lösung zu sein, die alle Probleme löst.

    Ich behaupte zwar, zumindest höre ich das immer wieder aus den vorgebrachten Argumenten heraus, dass dies in vielen Fällen daran liegt, dass man noch auf dem Stand von Windows XP ist, was das Wissen, die Werkzeuge und die Prozesse betrifft. Nutzung der aktuellen Möglichkeiten, also imagebasierte Installationen von Windows 7, das sogenannte “offline Serviceing”, also die offline Integration von Treibern und Updates in das Installationsimage vor der Installation, die Automation des Verteilprozesses per PXE Boot mit Multicast und Automation der Installation über das Microsoft Deployment Toolkit 2010 (Minimum) oder den System Center Configuration Manager 2007 (empfehlenswert für mittlere bis große Unternehmen) dürfte viele der bekannten Probleme adressieren und auch die benötigte Zeit und die Kosten für die Migration optimieren, bzw. minimieren. Auch der darauffolgende Betrieb lässt sich mit den richtigen Werkzeugen (System Center Configuration Manager, App-V, WSUS) in optimierter Weise sicherstellen. Man sollte nicht vergessen, dass auch virtualisierte Clients umfassend verwaltet werden müssen – nur kommt hier die Verwaltung der Server noch dazu.

    Aber egal – das war nicht das, was ich hier erzählen wollte… Und: Die Virtualisierung – nicht zu vergessen, dass auch das oben genannte App-V eine Virtualisierungstechnologie ist – ist in vielen Fällen eine sinnvolle und auch notwendige Ergänzung für die sonstigen Desktopsysteme.

    Auf der TechEd, die diese Woche in Berlin stattfindet, wurden auch Details rund um das Service Pack 1 des Windows Server 2008 R2 erläutert. Für den Bereich der Desktop Virtualisierung (VDI) gibt es hier nennenswerte Verbesserungen. Zitat: “Hi, I’m Michael Kleef, senior technical product manager within the Windows Server and Cloud division. As Brad Anderson and I discussed at the TechEd Europe keynote today, Dynamic Memory, a new feature in Windows Server 2008 R2 SP1, can increase Virtual Desktop Infrastructure (VDI) densities by 40% compared to Hyper-V in Windows Server 2008 R2 and also well above a leading industry solution.
    Den ganzen Blog Post kann man hier nachlesen.

    Es gibt also eine Menge spannender Dinge, die auf “uns” IT-Pro’s” warten…

  • Stichwort Deployment - P2V Migration for Software Assurance

    Hier ein Thema an dem sich echt die Geister scheiden oder auch manch eine hitzige Diskussion ihren Anfang findet – wie rette ich Funktionen meines alten Windows XP Arbeitsplatzes, die nun mal partout nicht unter Windows 7 funktionieren wollen?

    Den alten Rechner am Platz stehen lassen und per KVM Switch zwischen alt und neu wechseln mag ja charmant klingen, dürfte aber nur in den wenigsten Fällen ein praktikabler Ansatz sein. Mancher sagt vielleicht, klar, ab auf einen Terminal Server. Dumm nur, wenn der sinnvollerweise auf Windows Server 2008 R2 läuft. In der Regel kommt die Antwort “XP Mode”, also die für Windows 7 Enterprise Edition und Ultimate verfügbare/lizenzierte Windows XP SP3 VM, die man nur herunterladen und installieren muss. Nachteil: Ich muss alle Anwendungen neu installieren, damit ich sie dort nutzen kann.
    Anmerkung: Der häufig zitierte Grund, dass dies nur auf Rechnern funktioniert, die die Hardware unterstützte Virtualisierung unterstützen gilt schon lange nicht mehr, solange man den den dann benötigten Hotfix (KB977206) installiert hat.

    Aber: Die Lösung ist da.

    Das Tool, das die ganze “Magie” erledigt, gibt es schon länger: disk2vhd, ein Sysinternals Tool. Mit dem gerade erschienenen Solution Accelerator “P2V Migration for Software Assurance” (Download Link) lässt sich dies im Rahmen des Deployments bzw. der Migration erledigen. Durch die enge Integration in die Aufgabensequenzen des Microsoft Deployment Toolkit ergibt so eine abgerundete Migration bestehender Windows XP Maschinen – der existierende Rechner wird als virtuelle Festplatte für Virtual PC oder Hyper-V gespeichert und danach automatisiert Windows 7 mit den benötigten Komponenten und Anwendungen auf dem Rechner installiert. Per USMT (User State Migration Toolkit) werden dabei auch die Daten und Einstellungen vom alten Rechner auf die neue Installation übernommen.

    Am Ende steht einmal eine neue Installation mit den benötigten Anwendungen. Die Daten und Einstellungen des Benutzers sind soweit sinnvoll, möglich und vorgesehen dabei übernommen worden. Zur Sicherheit oder für den Fall, dass es keine kompatible Lösungen für bisherige Anwendungen gibt, existiert die alte Arbeitsumgebung als virtuelle Maschine weiter. Je nach verfügbarer lokaler Leistungsfähigkeit kann die Maschine lokal unter dem Windows Virtual PC laufen oder aber zentral auf einem Server mit Hyper-V.

    Zwei Punkte will ich aber noch besonders anmerken: Wie auch beim genannten Solution Accelerator erwähnt, sollte die Möglichkeit der Virtualisierung nicht das Allheilmittel für alle Systeme sein! Es ist auf jeden Fall bei weitem sinnvoller, sich der Kompatibilität der Anwendungen zu widmen und hier die Probleme zu lösen, auch, wenn dies heißen sollte neue Anwendungen für benötigte Funktionalitäten zu beschaffen. Es ist immer sinnvoll, erst einmal die Virtualisierung als den letzten möglichen Notnagel zu betrachten. Der wird vermutlich eh noch häufig genug benötigt.
    Der zweite Punkt ist die Anmerkung unten auf der Seite von “disk2vhd” – die beschriebene Virtualisierung setzt bestimmte Windows Lizenzen voraus. Beispiel: Eine reine OEM Lizenz reicht nicht aus, um korrekt lizenziert zu sein. Das ist auch der Grund, warum der Solution Accelerator “… for Software Assurance” benannt ist.

  • Stichwort “Deployment”… (Windows Desktop Deployment)

    Vor gut einem Jahr erschien Windows 7 auf dem Markt. Alle waren überzeugt davon, dass dies das bisher beste Windows ist. Auch bei den Analysten herrschte Einigkeit darüber, dass Windows 7 das Betriebssystem ist, auf das man setzen sollte. Als Zeitfenster für eine empfohlene Migration wurde 2010/2011 genannt. Vielfach wurde auch direkt befürchtet, dass die verfügbaren qualifizierten Ressourcen knapp werden, wenn alle mit ihren Projekten starten.

    Jetzt, ein Jahr später, sind wir anscheinend mitten drin. Die Anfragen und Termine rund um die sogenannte Desktop Strategie häufen sich. Microsoft Partner mit denen ich gelegentlich spreche sind stark beschäftigt oder finden sogar nicht genug qualifizierte Leute um die anstehenden oder nachgefragten Projekte zu bedienen.

    Was tun wir, damit Sie erfolgreich sein können? Verschiedenes – je nachdem, wer dies gerade liest.

    In der kommenden Woche findet das NT-AG Anwendertreffen statt. Ein Schwerpunkt ist dabei das Thema Deployment – frei nach dem Motto “aus alt mach neu”.
    Diese Veranstaltung ist exklusiv den Mitgliedern der NT-AG Usergroup vorbehalten, aber Sie können ja auch Mitglied werden, wenn Sie es nicht schon sind.

    Anfang Dezember veranstalten wir (Microsoft TechNet) einen virtuellen TechDay zu dem Schwerpunktthema Deployment. Dort werden dann die wichtigsten Themen behandelt, mit denen man typischerweise in der Praxis konfrontiert wird, wenn man sich dem Thema Deployment und Migration widmet. Auch die Kompatibilität von Anwendungen gehört dazu, also nicht nur das Bereitstellen von Windows 7 und Office 2010 mit allem, was dazu gehört.
    Warum “virtuell” und nicht als Tour durch Deutschland? Per TechNet Newsletter wurden viele Leute gebeten, Ihre Wünsche zu äußern. Nach der Konsolidierung am Ende kristallisierte sich heraus, dass viele Leute gerne von ihrem Arbeitsplatz aus, möglichst am späten Nachmittag oder frühen Abend, gerne auch später noch offline, sich mit dem Thema beschäftigen wollen. Interaktion, also die Möglichkeit Fragen zu stellen und beantwortet zu bekommen, war auch wichtig, weswegen das reine Videogucken ausscheidet. Wenn man dann berücksichtigt, dass auch die Reiseaufwände zu einer Veranstaltung erheblich sein können – wir bekommen immer wieder die Frage warum nicht auch in <bitte hier Ihre Stadt einsetzen>? – wird klar, dass virtuelle TechDays vermutlich eine sehr gute und sinnvolle Ergänzung des bisherigen Formates sind. Auch hier bleiben die Aufzeichnungen nachher für die offline Ansicht erhalten, aber es gibt auch die Möglichkeit der direkten Teilnahme per Chat, wenn man sich registrieren mag.

    Speziell an Partner und auch die Learning Partner, also typische “Multiplikatoren”, wendet sich ein Angebot, dass wir für den 25. November hier in München vorbereiten – einen eintägigen Deplyoment Workshop. Die Kommunikation und Einladung dazu läuft über die entsprechenden Kanäle. Aber – keine Sorge, alle anderen können sich die Inhalte auch aneignen. Unsere Learning Partner bieten dazu qualifizierte Schulungen an. Als Basis steht dafür der Microsoft Official Curriculum (MOC) Kurs 10220A (Planen und Verwalten von Windows 7-Desktopbereitstellungen und -umgebungen) zur Verfügung.