.: Michael Korp :.

Rund um die Windows Plattform, Systems Management und Virtualisierung

.: Michael Korp :.

The best way to predict the future is to invent it.
(Alan Kay)
Artikel
  • VHD Resize – wie passe ich die Größe einer VHD an?

    Heute kam wieder eine Anfrage an, die mich veranlasst hat, nicht direkt die Antwort zu schreiben, sondern erst kurz zu recherchieren und etwas zu testen…

    Die Frage: Ich habe eine VHD variabler Grüße mit 100 GB erzeugt, die jetzt physisch auf 30 GB angewachsen. Nun wollte ich die VHD in eine VHD mit fester Grüße umwandeln. Leider wird diese dann aber 100 GB groß. Aus Gründen des Platzbedarf möchte ich sie aber nur maximal 70 GB groß haben. Wie geht das?

    Der Charme von VHDs mit variabler Größe ist ja, dass sie nur den Platz für die enthaltenen Daten benötigen. Je nach Plattform haben VHDs mit fester Größe aber Vorteile bei der Performance. Unter Hyper-V mit dem Server 2008 R2 hat sich die Leistungsfähigkeit der dynamischen Platten aber derart verbessert, dass dies kein Grund mehr sein sollte.

    Wichtig ist aber das Szenario VHD Boot – beim Start des Rechners aus der VHD wird die VHD immer auf die maximale Größe erweitert (Sparse Files). So ist sichergestellt, dass der physische Platz nicht ausgeht, was das OS nicht erwarten würde.

    Was ist also zu tun?

    Mit dem Hyper-V Manager kann man zwar VHDs erweitern, aber nicht verkleinern. Das bringt uns dann zu einem zwei Jahre alten Tools, dem VHD Resizer. Er wurde damals schon im Virtual PC Blog von Ben Armstrong erwähnt…

    Zur Funktionsweise: Der VHD Resizer kopiert den Inhalt der VHD blockweise in eine neue VHD. Der Vorteil hierbei ist, dass die originale VHD erst einmal erhalten bleibt. Diese Methode ist auch die einzige, die ein Verkleinern erlaubt. Prinzipiell ließe sich dieser Vorgang auch mit anderen Werkzeugen bewerkstelligen, wichtig ist nur, dass man die Inhalte und Strukturen 1:1 kopiert. Man darf nicht vergessen, dass gerade bei VHDs mit modernen Betriebssystemen auch die “Volume ID” eines Volumes nicht verändert werden sollte. Deswegen ist die blockweise Kopie des “Container Inhalt” keine schlechte Idee.

    Ein Problem muss aber getrennt, ja nach Operation auch vorher, gelöst werden: Das Anpassen der Inhalte der VHD, also der Partitionen bzw. Volumes. Die VHD ist nur der Container – die Partition/Volume ist der Inhalt. Der Container kann daher nie kleiner werden als der Inhalt!

    Jetzt schlägt die Stunde der Liebhaber der Kommandozeile!

    Voraussetzung ist, dass die VHD in einer anderen Betriebssysteminstanz verfügbar ist. Das geht per Hyper-V oder bei Windows 7 (oder dem Server) ebenfalls von der Kommandozeile mit diskpart:

    diskpart

    select vdisk file=<Pfad zur VHD Datei>
    attach vdisk

    Sinnvoll ist es die Partition defragmentiert zu haben, sonst wird vermutlich zuviel verteilter Platz belegt. Danach verkleinern wir das Volume:

    select volume <Volume Nr>
    shrink [desired=<Größe in MB>]

    Ohne die Angabe der Megabytes um die verkleinert werden soll, wird maximal möglich verkleinert.

    Jetzt müssen wir die VHD nur noch wieder freigeben, damit sie dann per VHD Resizer verkleinert werden kann:

    select vdisk file=<Pfad zur VHD Datei>
    detach vdisk

    exit

    Eine Eigenart ist mir beim VHD Resizer aufgefallen: Die Zielgröße muss immer etwas größer als die minimale Größe sein, damit er loslegen will.

    Wer eine VHD vergrößern will, muss analog im Nachgang noch Partition/Volume vergrößern. Auch dafür liefert diskpart die benötigten Befehle:

    expand vdisk erweitert eine VHD
    extend erweitert eine Partition oder ein Volume

    Viel Erfolg!

  • Randnotiz – Microsoft Office Word als Schreibroboter

    Klingt zwar komisch, ist aber gelegentlich ganz praktisch. Warum? Ganz einfach…

    Irgendwann einmal war ich auf der Suche nach “Blindtext”, also strukturiertem Buchstabensalat. Ich vermute, jeder kennt das berühmte “Lorem ipsum…” So etwas halt. Aber wo? Meine Suche im Internet brachte nicht das, was ich wollte. OK – der eine oder andere vermutet wohl, ich hätte einfach die falsche Suchmaschine bemüht, aber egal. Was ich nicht wollte, war irgendeinen Text, z.B. aus dem Internet, zu kopieren. Wer weiß, nachher taucht der noch in irgendeiner Videoaufzeichnung auf und ich habe Stress mit dem Copyright.

    Zum Glück gibt es ja Kollegen mit glorreichen Ideen bzw. einem umfassenden Wissen in ihrem Bereich – Danke an Michael Vietzke, unserem “IW” (Office und SharePoint) Spezialisten aus dem Vertrieb. Er meinte: Starte mal Word und gebe dort “=rand(99, 100)<Enter>” ein. “<Enter>” steht dabei für die Eingabetaste oder Zeilenschaltung, wie man zu Zeiten der alten Schreibmaschinen sagte. Und siehe da, es gab eine Menge an Text – deutlich mehr, als ich eigentlich brauchte.

    Jetzt hab ich das einem Kollegen gezeigt und wir sind dem dann empirisch zu Leibe gerückt mit dem Ergebnis, dass “=rand(x, y)” X Absätze mit Y Sätzen generiert. Jetzt braucht es vermutlich noch einen Office Spezialisten der erklärt, wo der Text eigentlich herkommt… Oder reicht etwa der Blick in die Hilfe?

    Für meinen Zweck hat es auf jeden Fall gereicht. Eigentlich wollte ich ja nur Fähigkeiten von Word 2010 zum Einbetten und Freistellen von Grafiken und “Schneiden” von Video Clips zeigen.

    Aber wer weiß, es gibt ja das Gerücht, dass von umfangreichen Abhandlungen eh nur die ersten und letzten Seiten gelesen werden. Vielleicht erklärt das dann, warum manche “mal eben” Abhandlungen mit hunderten von Seiten Inhalt schreiben… ;-)

  • LUN Limit für Windows Server mit Hyper-V

    Wir sind ja gerade wieder auf TechDay Roadshow quer durch die Republik unterwegs – Thema: Von der Server Virtualisierung zur Private Cloud. Virtualisierung ist daher auch eines der Kernthemen. Während einer Pause stellte man mir die Frage: “Wie groß darf eine LUN für Hyper-V beim Windows Server werden? (Bei VMware gäbe es ein Limit von 2TB)”. Da mir zwar keine Grenzen bekannt waren, wollte ich aber nicht so einfach behaupten, dass es keine gibt, ohne nochmal nachzusehen und –fragen. Immerhin gibt es ja nicht nur den simplen Fall, dass eine LUN bei einem Server als Laufwerk eingebunden wird, sondern in diesem Fall wird man in den meisten Fällen über LUNs im Cluster und dort als Cluster Shared Volume nachdenken wollen. In der TechNet Bibliothek habe ich im wesentlichen einen relevanten Artikel gefunden – selbst, wenn er sich offiziell auf den Windows Server 2003 bezieht, steht ausdrücklich im Text, dass er sich auch auf die aktuellen Versionen bezieht (soweit nicht anders vermerkt)…

    Die wesentlichen Grenzen liegen eher auf Seiten des Dateisystems.

    Windows unterscheidet zwischen Platten mit MBR oder welchen mit GUID Partitionstabellen. MBR basierte Laufwerke haben tatsächlich (konventionell) eine Grenze von knapp 2TB Größe. Heutige Platten umgehen dies durch das “Advanced Format” mit physischen 4K Sektoren. In diesem Fall sind aber GPT Platten eher sinnvoll, wenn die Größe über 2TB wachsen soll. NTFS als Dateisystem erlaubt knapp 64TB als maximale Größe. Technisch sollte man also mit LUNs, die als GPT Platte initialisiert werden, auf der sichern Seite sein. Aber auch, wenn so LUNS mit deutlich über 2TB möglich sind, sollte man auch die Themen der Verwaltbarkeit, Datensicherung und auch die benötigte I/O Leistung nicht außer acht lassen…

  • Windows 7 SP1 – Virtual PC und Remote Server Administration Tools (RSAT)

    Mein erster Updateversuch mit dem Service Pack 1 war “bescheiden” – bis ich gelernt hatte, was schief laufen kann… Dann fehlten mir essentielle Komponenten, von denen aber die letzten Bausteine vergangene Woche verfügbar wurden. Daher kann man jetzt letztlich mal wieder Nina Ruge zitieren: “Alles wird gut!”

    Was war passiert? Ich hatte einen Rechner mit einem englischen Windows 7 installiert, in das ich das deutsche Sprachpaket integriert hatte. Als jemand, der häufiger mit Virtualisierung und Servern zu tun hat, hatte ich auch die RSAT (Remote Server Administration Tools) installiert und natürlich den Windows Virtual PC. Aus irgendeinem Grund hatte ich aber ein RSAT Paket erwischt, dass nicht dem (bis vor kurzem) aktuellen Download entsprach. Ich hätte wetten können, dass es von externen Servern (RTM) stammte, aber im nachhinein kann man das häufig nicht mehr exakt nachvollziehen. Im CBS.log (%SystemRoot%\Logs\CBS.log) gab es dazu einen Fehler, der mich auf die richtige Spur brachte – eine Hilfe Datei zu einer Server Adminkonsole konnte nicht gefunden werden. Sie war auch nicht da! Sie hätte aber da sein müssen, wird aber durch das SP1 nicht aktualisiert, ist also auch nicht im SP1 enthalten… Server konnte also nur RSAT sein, daher habe ich dann die RSAT deinstalliert. Danach lief das Service Pack durch. Nachteil: Keine Server Administration mehr möglich. Seit dem 7. April ist der SP1 RSAT Download nun aber verfügbar.

    Remote Server Administration Tools (RSAT) und Windows Virtual PC (WVPC) – beide Update Pakete tragen ein “RefreshPkg.msu” im Namen. Die jeweiligen Versionsnummern sind zum Teil irreführend… Daher: Für beide gemeinsam gilt:

    • Das Download Paket gilt für Windows 7 RTM und Windows 7 SP1
    • Wer die jeweiligen Komponenten vor dem SP1 Update installiert hatte, muss sie nicht getrennt aktualisieren – das hat das SP1 schon erledigt.
    • Wer heute noch Windows 7 RTM installiert, kann trotzdem diese Pakete verwenden.

    Meine bevorzugte Installationsreihenfolge für den Fall, dass kein Medium mit integriertem SP1 vorliegt:

    • Windows 7 RTM (Enterprise, Ultimate, Professional)
    • Windows 7 Service Pack 1 Update
    • Datenträgerbereinigung inkl. der Service Pack Dateien – Achtung: Service Pack kann danach nicht mehr deinstalliert werden.
    • RSAT, Virtual PC, IE9 etc.
    • Windows Update

    Wenn man das Service Pack auf einem Rechner installiert, der eine längere Historie hinter sich hat, ist es auf jeden Fall sinnvoll, zu prüfen, ob man irgendwelche “Pre-Release” Komponenten auf dem Rechner hat, um diese ggf. deinstallieren zu können. Treiber und Firmware sollten ggf. auf Aktualität geprüft werden. Die Versionen 1.0 von Security Essentials oder Forefront Client Security müssen auch im Vorfeld aktualisiert oder deinstalliert werden.
    Man sollte unbedingt die Chance nutzen um zu prüfen, ob man eine aktuelle Sicherung hat!
    Als ein weiterer sinnvoller Schritt, wenn Probleme auftauchen oder man vorbeugen will, ist das Systemupdate-Vorbereitungstool (System Update Readiness Tool), das man über den KB Artikel 947821 findet. Die aktuelle Version 10 vom Februar ist deutlich umfangreicher als die Vorgängerversionen, es hat also eine Reihe von Aktualisierungen gegeben!

    Ich will jetzt hier nicht alle Informationen im Web duplizieren – Mein Kollege Daniel Melanchthon hat dazu in unserem Windows 7 Blog einen umfangreichen Artikel zu einem der Probleme geschrieben – aber ein paar typische Fehler sind ein Linux Bootloader, mit verschiedenen Tools modifizierte oder verschlankte Windows Installationen oder aber auch, wie in dem genannten Artikel beschrieben Fehler beim Aktualisieren der Windows Installationen.

    Außer dem einen oben genannten Problem sind für mich alle bisherigen SP1 Updates dienstlich oder privat, volles Paket oder automatische Updates, Server oder Client ohne Probleme durchgelaufen und inzwischen auch wieder mit allen Funktionen versehen.

  • DFS Betrieb – Migration von FRS nach DFS-R

    “Früher” wurde ja die Dateireplikation mit den “File Replication Services” (FRS) erledigt. Das galt für die Dateien der Domain Controller (SysVol) ganauso wie für DFS. Seit Windows Server 2003 R2 gab es für DFS alternativ auch DFS-R, die “DFS Replikation”. Heute ist DFS-R der Standard beim Windows Server 2008 R2.

    Wer jetzt dabei ist, seine ganze Infrastruktur und die verschiedenen Server zu aktualisieren, dem kann vielleicht dieses Dokument helfen: “DFS Operations Guide: Migrating from FRS to DFS Replication”.

    Die Vorteile von DFS-R sind nicht nur die größere Robustheit, sondern auch die Effizienz, da vor der Replikation erst die binären Deltas bestimmt werden, so, dass das zu übertragende Datenvolumen minimiert wird.

    Nebenbei bemerkt: DFS-R ist nicht nur auf die DFS und SysVol Replikation beschränkt, sondern kann auch verwendet werden, um beliebige Verzeichnisse zu replizieren und damit auch viele klassische Robocopy Jobs abzulösen…

  • Windows 7 Deployment – TechDay Online und mehr

    Die installierte Basis von Windows XP nimmt weiterhin zugunsten von Windows 7 ab. Neue Rechner, die alte ersetzen, tragen dazu bei, aber in den meisten Fällen dürfte eine Migration die Ursache sein. Gerade in Unternehmen ergeben sich hier manche Herausforderungen, da man ein vorher definiertes Setup einfach und automatisiert in die Fläche bringen will und dabei Anwendungen, Treiber und Aktualisierungen installieren muss und gleichzeitig die Daten und Einstellungen der Anwender übernehmen soll…

    Der TechDay Online zu Windows 7 Deployment führt in die Grundlagen ein, zeigt die verwendeten Werkzeuge und bietet Erfahrungen aus der Praxis. Dieser TechDay findet am 8. und 9. Juni 2011 als online Veranstaltung statt und kann im nachhinein weiterhin als Video abgerufen werden – nur die Möglichkeit Fragen zu stellen, fällt dann weg…

    Ergänzend dazu hat sich auch ein amerikanischer MVP (Microsoft Most Valuable Professional) mit den Themen beschäftigt und dazu verschiedene Artikel mit diversen Kapiteln geschrieben:

    Nicht vergessen: Die Werkzeuge werden ständig weiterentwickelt. Es lohnt sich also, immer nach Aktualisierungen Ausschau zu halten. Das Microsoft Deployment Toolkit (MDT) geht in die nächste Iteration. Noch (Stand heute) ist das MDT 2010 Update 1 aktuell, aber vor ein paar Tagen wurde die erste Beta des MDT 2012 freigegeben. Wer sich mit dem System Center Configuration Manager 2012 beschäftigt, findet hier ein kompatibles MDT. Ein paar Tage länger gibt es die Beta des Microsoft Assessment and Planning Toolkit 6.0 (MAP).

  • Windows Virtual PC und Virtueller XP Modus – erweiterte Konfigurationsoptionen

    Mit dem Windows Virtual PC und dem virtuellen XP Modus in Windows 7 gibt es ja elegante Möglichkeiten bestimmte Kompatibilitätsprobleme zu lösen. Alte Anwendungen, die unter einem neuen Betriebssystem nicht vernünftig laufen sind mit die häufigsten Blocker für die Betriebssystemaktualisierung.

    Wenn also unter Windows 7 der Internet Explorer 6 noch für einige Web Anwendungen benötigt wird – nur um ein beliebtes Beispiel zu nennen – ist der virtuelle XP Modus ein Lösungsansatz.

    Der Vorteil ist hierbei, dass sich die virtualisierten Anwendungen nahtlos in das Startmenü integrieren und so einfach vom Anwender genutzt werden können.

    Wer schon häufiger damit gearbeitet hat, dem ist aber bestimmt aufgefallen, dass dies auch ein paar Schönheitsfehler hat. Was den einen oder anderen Anwender stören könnte, zumindest, wenn er die Hintergründe nicht kennt, ist die relativ lange Startzeit beim ersten Aufruf. Klar, es muss ja im Hintergrund auch eine komplette virtualisierte OS Instanz initialisiert werden.

    Schließt man die virtuelle Anwendung und öffnet sie kurz danach wieder, ist sie dagegen sofort verfügbar, genau wie andere lokal installierte Anwendungen. Nur – wenn man erst mehrere Minuten wartet, dauert es doch wieder länger… Hintergrund: Die virtuelle Maschine geht im Prinzip in den Ruhezustand um bei Inaktivität nicht unnötig Systemressourcen zu verbrauchen – immerhin ca. 512MB in der Standardkonfiguration.

    Andere Personen (z.B. meiner einer) waren in der Vergangenheit gewohnt eher mit Virtual Server als mit Virtual PC zu arbeiten. Ein Vorteil war der “unauffällige” Betrieb von VMs im Hintergrund, während Virtual PC immer das Konsolenfenster angezeigt hat. Hat man dieses beendet, war auch die VM beendet. Beim Windows Virtual PC sind diese “headless” VMs möglich…

    All diese “Probleme” lassen sich mit dem Windows Virtual PC adressieren, dummerweise nicht in den Standard Eigenschaftendialogen. So lassen sich weder der Headless Modus, noch Hibernation bzw. das Hibernation Timeout per GUI konfigurieren. Wie man dies mit einigen Skripten erreicht, kann man in Englisch auf dem Windows Virtual PC Blog nachlesen. Auch die Skripte selbst sind dort in eingebetteten Fenstern verfügbar.

    Da heute die meisten neuen PCs eher mit drei oder vier Gigabyte RAM als mit einem ausgerüstet sind, lässt sich der permanente Hintergrundbetrieb vermutlich auch leichter verschmerzen.

    Nicht vergessen sollte man aber, dass dadurch beim Start des Rechners bzw. der Anmeldung des Benutzers eine Menge Aktivitäten initiiert werden (der Start einer VM). Wer also immer erst darauf wartet, dass die Platte im Rechner Ruhe gibt, bevor er anfängt etwas zu tun, braucht ein wenig mehr Geduld. Da wir aber mit einem Multitasking Betriebssystem auf relativ aktuellen Multi-Core CPUs arbeiten, sollte man sich nicht zu sehr irritieren lassen. Was dann noch bleibt, ist der Flaschenhals Festplatte. Notebooks sind hier meist langsamer als Desktops, alte kleine Platten in der Regel merklich langsamer als neue große und – nicht zu vergessen – wenn Platten voll werden, fragmentieren sie automatisch stärker und werden dadurch langsamer.

    Noch ein paar Anmerkungen, die nicht direkt in den Kontext gehören, aber hilfreich sein können:

    Wer bisher Windows XP auf seinem Rechner hatte und jetzt Windows 7 installiert, sollte vorher im BIOS prüfen, ob der SATA Adapter im AHCI Modus betrieben wird. Windows XP brauchte hier noch den per Floppy zu installierenden Treiber, weshalb die meisten Rechner (auch heute noch) im kompatiblen aber weniger effizienten kompatiblen ATA Modus konfiguriert sind.

    Wer sich trotz des Preises für eine SSD akzeptabler Grüße entscheidet, weil die eine höhere Geschwindigkeit versprechen, sollte diese (Geschwindigkeit) eigentlich erst dann beurteilen, wenn die SSD einmal soviel Daten gespeichert hat, wie ihrer Nennkapazität entspricht. Wie alle normalen Flash Speicher bevorzugt der Speicher Controller erst die noch freien Blöcke für Schreibvorgänge, da diese Schreibvorgänge dann schneller sind. Erst wenn alle freien Blöcke belegt sind, wird der langsamere Zwischenspeichern-Löschen-Schreiben Zyklus verwendet. Erst ein Formatieren des Speichers signalisiert dem Flash Speicher, dass alle Blöcke wieder gelöscht und damit frei sind. Abhilfe schafft hier erst die Unterstützung des ATA Trim Befehles, der von Windows 7 und (heute) einigen wenigen SSDs beherrscht wird.

    Die Auswahl bei klassischen Festplatten ist auch nicht ganz einfach. Leise und schnell geht nicht immer gut zusammen. Geschwindigkeit hängt von Transferraten und Zugriffszeiten/Latenzen ab. Große (Durchmesser) und langsame (Drehzahl) Platten haben Nachteile bei der Latenz. Daher sind die 2,5” Serverplatten auch recht schnell, lassen sich aber in keiner Weise mit der Technik der 2,5” Notebookplatten vergleichen. Platten mit hoher Packungsdichte liefern dann wieder hohe Transferraten. Die Kapazität eines Laufwerkes ergibt sich dann aus der Kapazität einer Platte und der Anzahl Platten/Köpfe im Laufwerk. Wer den Platz nicht benötigt, ist also gut beraten, das kleinste Modell der Serie zu wählen, die die höchste Kapazität hat (und dabei noch schnell dreht)…

    Man verzeihe mir, wenn ich hier nicht wirklich in die Einzelheiten gehe, aber ich wollte nur die Prinzipien verdeutlichen, hoffentlich so, dass sie möglichst viele noch verstehen. Wer sich wirklich für die einzelnen Details interessiert, findet auch im Internet ausreichend Artikel.

  • Hyper-V und die Startreparatur von Windows

    Ist mir selber in der Kombination noch nicht passiert, aber die Startreparatur habe ich doch schon häufiger bemühen müssen. Ein Grund dafür ist, dass ich doch das eine oder andere Mal die Platte im Rechner gegen eine andere oder größere tauschen wollte, versucht habe “besonders schlau” zu sein oder aber aus irgendeinem anderen Grund an der Plattenkonfiguration gearbeitet habe. Gelegentlich auch einfach nur, weil nach einem Stromausfall (oder Kurzschluss) der Rechner nicht mehr starten wollte…

    Bei normalen Rechnern – egal ob Server oder Client – ist das relativ undramatisch. In den allermeisten Fällen startet man den Rechner von der OS DVD (ich nehme immer einen USB Stick, da robuster und kompakter) und wählt bei den Reparaturoptionen die Startreparatur.

    Ja nach Fehler geht Windows dann hin und kopiert fehlende Dateien und erzeugt bei Bedarf einen neuen Boot Configuration Data (BCD) Store. Dummerweise weiß die Startreparatur nicht, ob Hyper-V auf dem Server laufen sollte. Hyper-V wird daher nicht aktiviert. Wer also Hyper-V installiert hat und feststellt, dass jetzt seine VMs nicht mehr starten, muss nur Hyper-V wieder überreden, automatisch zu starten:

    bcdedit /set hypervisorlaunchtype auto

    erledigt dies, wie Ben Armstrong auf seinem Blog erklärt. Kein großes Geheimnis, aber im Zweifelsfall gut zu wissen…

  • Windows Virtual PC und fehlende Optionen

    Letztens hatte ich wieder ein Problem, das ich als erledigt geglaubt hatte: Ich brauchte einen USB Stick, der in der Lage war, DOS zu starten. Disketten sind ja nicht mehr wirklich angesagt – weniger, weil sie nicht mehr überall herumliegen, sondern eher weil die passenden Laufwerke seltene und von den seltenen Besitzern gut gehütete Exemplare sind. Nebenbei bemerkt: sie sind inzwischen auch etwas klein, was das verfügbare Speichervolumen betriff.

    Nun kann Windows 7 zwar immer noch “DOS Startdisketten” formatieren, nur braucht das eine richtige Diskette und keinen USB Stick. Außerdem laufen manche Tools unter Windows 7 nur, wenn man ihnen per Kompatibilitäts-einstellungen vorgaukelt unter irgendeinem älteren, noch unterstützten, Betriebssystem zu laufen.

    Also dachte ich mir, ich bin mal schlau und nehme eine virtuelle Maschine…

    Virtuelle Maschinen haben ja den Vorteil typische Speichermedien per Abbilddatei einbinden zu können. Festplatten sind dann VHDs, DC/DVD entsprechend ISOs und Disketten VFDs. Also mal eben den Virtuellen XP Modus gestartet und – siehe da, es gibt ein Diskettenlaufwerk! Dummerweise gibt es nirgends die Option dieses Laufwerk irgendwie mit Inhalt zu füttern – zumindest nicht per GUI.

    Wer jetzt mit der Syntax der schon länger verwendeten XML basierten VMC Dateien “per Du” ist, öffnet die schnell mal in Notepad und schreibt die richtige Konfiguration da herein. Hab ich aber bisher nie gemacht… Windows Virtual PC zu deinstallieren um den “alten” Virtual PC 2007 zu verwenden empfand ich jetzt nicht als sinnvolle Option. Da die Einstellungen aber noch existierten, muss es eine Schnittstelle geben – dachte ich mir. Und: Recht hatte ich. Auf MSDN steht alles, was man wissen muss. Nur: MSDN heißt programmieren! Also entweder ein paar gezielte VB Skripte schreiben oder aber etwas mehr Aufwand treiben und eine GUI drum herum bauen. Wofür gibt es schließlich die langen dunklen Winterabende, wenn man keinen Kaminofen hat?

    Überrascht haben mich dabei ein paar Punkte: Die API zu Windows Virtual PC ist eine COM API. .NET geht daher über die Interop Schnittstelle, die zum Glück inzwischen “automatisch” funktioniert. Dementsprechend findet man die Beschreibung in der MSDN Library auch unter “Win32 and COM Development” und dort unter “Virtualization” neben der Beschreibung des Virtual Server. Am meisten überrascht war ich aber, dass die Code Beispiele im Blog in C(++) formuliert waren und nicht etwa in der Breitensprache Visual Basic oder aber moderner in CSharp.

  • Windows und seine Grenzen

    Gerade gesehen – ein typisches Beispiel von Missverständnis und theoretischen bzw. praktischen Grenzen. Aussage: Windows unterstützt maximal 256 LUN’s. Stimmt das? Einer unserer “Program Manager” (Elden Christensen) hat das mal so beantwortet: Windows supports (255 LUN IDs per target) x (128 targets per bus) x (8 buses per adapter) = a total of 261,120 LUN’s per HBA… Nehmen wir jetzt noch an, dass wir diverse HBAs in einen Server stecken können, dann ist das Ergebnis immer noch jenseits jeder praktischen Relevanz. Andere formulieren das dann gerne als “Windows has no limitation”, was streng genommen aber nicht korrekt ist. Was bleibt, ist, dass die Grenzen eher von Seiten des SANs, der Hardware oder aber der Praxis erreicht werden.

    Bei anderen Grenzen ist das etwas schwieriger bzw. trickreicher. Die Diskussion um die Länge von Pfaden oder vollständigen Dateinamen ist etwas diffiziler. Aus Sicht des Programmierers gibt es (seit ewigen Jahren) die Konstante MAX_PATH (oder _MAX_PATH), die mit 260 definiert ist. Seit wir Unicode Pfade unterstützen, reicht das aber nicht mehr aus (OK, wenn man (in C/C++) korrekt _TCHAR verwendet, gäbe es eigentlich kein prinzipielles Thema). Trotzdem: Die Unicode APIs erlauben Pfadlängen bis zu 32767 Zeichen, wenn auch nicht in der üblichen Schreibweise – für Details empfehle ich diesen MSDN Artikel. Hier ergibt sich dann immer das Problem, was einerseits das Betriebssystem (oder Dateisystem) unterstützt und was die typischen Anwendungen unterstützen. Die Shell (der Windows Explorer) ist in dieser Betrachtung ebenfalls eine “Anwendung”, da er auch in den typischen Datei Dialogen Verwendung findet. Wer also sicherstellen will, dass Dateien am Ende auch wieder geöffnet werden können, sollte einigermaßen “kurze” Pfade einhalten – wieder einmal ein Fall, wo uns die Kompatibilität zur Vergangenheit nicht los lässt…
    Manch Administrator sollte hier aber gelegentlich wachsam sein – wenn Robocopy zum Kopieren von Dateistrukturen verwendet wird, kann das Ergebnis auch mal länger ausfallen, da Robocopy längere Pfade als 260 Zeichen erlaubt. Weitere typische Probleme sind Freigaben, wo der lokale Pfad viel länger als der remote Pfad ist oder DFS, wenn lokale (kurze) Bäume in einen existierenden (schon längeren) DFS Baum eingehängt werden.

    Disclaimer Zwinkerndes Smiley: Da ich seit Jahren nicht mehr wirklich etwas “richtiges” programmiere, mag obiges in Details nicht absolut präzise sein.

  • TechDay rund um den Internet Explorer 9

    Nachdem ich nun schon verschiedene Veranstaltungen rund um “unser neuer Client” gemacht habe, was eigentlich immer Windows 7 mit aktuellem Office und auch aktuellem Internet Explorer bedeutete, gibt es jetzt ergänzend einen eigenen TechDay rund um den IE9: TechDay Online - IE9 Firestarter.

    Warum könnte der wichtig sein? Relativ einfach: Viele Anwendungen wandern in die Cloud und damit in den Browser. Die vielfach noch verwendeten älteren Browser sind einfach nicht mehr sicher genug oder erfüllen nicht die gestellten Anforderungen – man denke nur an HTML 5. Auf der anderen Seite verhalten sich moderne Browser häufig etwas anderes als die gewohnten älteren, was wiederum zu Kompatibilitätsproblemen führt.

    Der TechDay hilft dabei, die Unterschiede zu verstehen und bei allem, was man benötigt, den Rollout zu bestreiten und Anwendungen kompatibel zu gestalten.

    Nur muss man sich beeilen – in einer Woche ist es schon soweit und der TechDay läuft an. Er findet online statt und ist wie gewohnt kostenlos.

  • Security Ressourcen und Toolkit

    Manchmal muss man echt wissen, wo oder wie man sucht… In letzter Zeit gab es häufiger Diskussionen um die sichere Konfiguration von “XY”. Die bekannten Dokumente sind aber inzwischen etwas älter, da man das meiste inzwischen in einen “Solution Accelerator” integriert hat – nur muss man das wissen. Der Selbstversuch, dies über das TechNet Security TechCenter zu finden, war doch leicht “frustrierend”… Daher hier der Link: Security Solution Accelerators.

  • Stichwort Deployment - P2V Migration for Software Assurance

    Hier ein Thema an dem sich echt die Geister scheiden oder auch manch eine hitzige Diskussion ihren Anfang findet – wie rette ich Funktionen meines alten Windows XP Arbeitsplatzes, die nun mal partout nicht unter Windows 7 funktionieren wollen?

    Den alten Rechner am Platz stehen lassen und per KVM Switch zwischen alt und neu wechseln mag ja charmant klingen, dürfte aber nur in den wenigsten Fällen ein praktikabler Ansatz sein. Mancher sagt vielleicht, klar, ab auf einen Terminal Server. Dumm nur, wenn der sinnvollerweise auf Windows Server 2008 R2 läuft. In der Regel kommt die Antwort “XP Mode”, also die für Windows 7 Enterprise Edition und Ultimate verfügbare/lizenzierte Windows XP SP3 VM, die man nur herunterladen und installieren muss. Nachteil: Ich muss alle Anwendungen neu installieren, damit ich sie dort nutzen kann.
    Anmerkung: Der häufig zitierte Grund, dass dies nur auf Rechnern funktioniert, die die Hardware unterstützte Virtualisierung unterstützen gilt schon lange nicht mehr, solange man den den dann benötigten Hotfix (KB977206) installiert hat.

    Aber: Die Lösung ist da.

    Das Tool, das die ganze “Magie” erledigt, gibt es schon länger: disk2vhd, ein Sysinternals Tool. Mit dem gerade erschienenen Solution Accelerator “P2V Migration for Software Assurance” (Download Link) lässt sich dies im Rahmen des Deployments bzw. der Migration erledigen. Durch die enge Integration in die Aufgabensequenzen des Microsoft Deployment Toolkit ergibt so eine abgerundete Migration bestehender Windows XP Maschinen – der existierende Rechner wird als virtuelle Festplatte für Virtual PC oder Hyper-V gespeichert und danach automatisiert Windows 7 mit den benötigten Komponenten und Anwendungen auf dem Rechner installiert. Per USMT (User State Migration Toolkit) werden dabei auch die Daten und Einstellungen vom alten Rechner auf die neue Installation übernommen.

    Am Ende steht einmal eine neue Installation mit den benötigten Anwendungen. Die Daten und Einstellungen des Benutzers sind soweit sinnvoll, möglich und vorgesehen dabei übernommen worden. Zur Sicherheit oder für den Fall, dass es keine kompatible Lösungen für bisherige Anwendungen gibt, existiert die alte Arbeitsumgebung als virtuelle Maschine weiter. Je nach verfügbarer lokaler Leistungsfähigkeit kann die Maschine lokal unter dem Windows Virtual PC laufen oder aber zentral auf einem Server mit Hyper-V.

    Zwei Punkte will ich aber noch besonders anmerken: Wie auch beim genannten Solution Accelerator erwähnt, sollte die Möglichkeit der Virtualisierung nicht das Allheilmittel für alle Systeme sein! Es ist auf jeden Fall bei weitem sinnvoller, sich der Kompatibilität der Anwendungen zu widmen und hier die Probleme zu lösen, auch, wenn dies heißen sollte neue Anwendungen für benötigte Funktionalitäten zu beschaffen. Es ist immer sinnvoll, erst einmal die Virtualisierung als den letzten möglichen Notnagel zu betrachten. Der wird vermutlich eh noch häufig genug benötigt.
    Der zweite Punkt ist die Anmerkung unten auf der Seite von “disk2vhd” – die beschriebene Virtualisierung setzt bestimmte Windows Lizenzen voraus. Beispiel: Eine reine OEM Lizenz reicht nicht aus, um korrekt lizenziert zu sein. Das ist auch der Grund, warum der Solution Accelerator “… for Software Assurance” benannt ist.

  • Neue Produkte, wie am laufenden Fließband…

    (mit ein paar Updates und Download Links)

    Eigentlich versuche ich mich ja zu enthalten, wenn es darum geht “me too” Artikel zu schreiben. Informationen werden ja nur begrenzt wert-/sinnvoller, je mehr Leute sie rezitieren. Warum also doch?

    Eigentlich nur, um einmal die verschiedenen Dinge zusammenzufassen.

    Am 12.4.2010 wurde verkündet, dass Visual Studio 2010 fertig ist. Die englische Version findet sich inzwischen auch schon in den Download Portalen. Trial und Express sind für jeden verfügbar, die “volle” Version für alle, die ein passendes MSDN Abo oder aber die “richtigen” Produkte unter einem Volumen Lizenzvertrag haben. Die deutschen Versionen sollen noch im April verfügbar werden. Mit Visual Studio 2010 wurden auch das .NET Framework 4 und Silverlight 4 fertig gestellt.

    Am 16.4.2010 wurde verkündet, dass Office 2010 fertig ist. Das bezieht sich sogar auf die Client und die Server Versionen (inklusive dem SharePoint Server 2010). Hier dauert es etwas länger, bis die Produkte extern verfügbar sind – am 12. Mai gibt es den weltweiten Business Launch und ab Juni dann die allgemeine Verfügbarkeit. Als TechNet Abonnent wird man vermutlich mal wieder zu den ersten (neben den MSDN Abonnenten… ;) ) gehören, die installierbare Versionen haben. Dafür sind meine Kollegen Steffen Krause und Daniel Melanchthon auch im Juni mit einem TechDay zu Office 2010 und SharePoint Server 2010 unterwegs. Es lohnt sich also, auf die Ankündigungen dazu zu achten.

    Heute Nachmittag (CET) wurden zwei System Center Produkte offiziell als fertig deklariert – pünktlich zum gerade angelaufenen Microsoft Management Summit in Las Vegas. Dort dürften dieses Jahr allerdings eher wenig Europäer vertreten sein – weniger wegen der Wirtschaftskrise, sondern mangels Reise-möglichkeit durch den Vulkanausbruch in Island.

    Das Produkt, auf das viele am ehesten gewartet haben, dürfte der System Center Data Protection Manager 2010 sein. Der DPM 2010 ermöglicht zum Beispiel die Datensicherung von Hyper-V Hosts, die im Cluster mit “Cluster Shared Volumes” arbeiten. Bisher konnte der DPM 2007 zwar den Windows Server 2008 R2 sichern, aber halt keine CSVs und dort laufende VMs. Weiterhin unterstützt DPM 2010 auch die neuen Server Produkte Exchange 2010 und SharePoint Server 2010. Details finden sich auf den Blogs der Produktgruppe und des verantwortlichen Produktmanagers. Die mehrsprachige Testversion findet sich hier.

    Für kleine bis mittlere Unternehmen interessant ist die heutige Fertigstellung von System Center Essentials 2010. Neben der Aktualisierung der integrierten Komponenten auf die jeweils aktuellen Stände, wurde auch die Verwaltung virtueller Maschinen und der zugrunde liegenden Hyper-V Hosts integriert. Auf diese Weise ist Essentials 2010 wirklich die fast vollständig integrierte umfassende Lösung zur Systemverwaltung. Eigentlich würde jetzt nur noch die Integration des DPM fehlen – zumindest, wenn man die Wünsche unserer Kunden hört. Auch hier gibt es wieder Artikel auf dem Blog der Produktgruppe und einen Artikel des Produktmanagers auf dem System Center Experten Blog. Die aktuell noch ausschließlich englische Testversion findet man hier.

    Und in absehbarer Zeit, offiziell wird ja immer noch das erste Halbjahr genannt, kommt dann noch der Service Manager 2010. Update: Heute (20.4.2010) wurde von Bob Muglia auf der MMS bekannt gegeben, dass auch der Service Manager 2010 fertig ist. Auch hier ist die fertige Eval Version im Download verfügbar, schneller, als ich es vermutet hatte... ;) Dazu auch das Announcement auf dem Service Manager Blog mit wichtigen Hinweisen. Von den anderen System Center Produkten unterscheidet sich der Service Manager ein wenig dadurch, dass er eher kein "technisches" Produkt ist, dass per installiertem Agenten von einem Server Daten erfasst oder Aktionen auslöst, sondern eher ein "Management" Produkt, dass es erlaubt Prozesse abzubilden und zu implementieren. Die Schnittstelle zu den "technischen" Produkten bilden Konnektoren, so dass z.B. die CMDB (Configuration Management Database) standarmäßig über Konnektoren von Active Directory, Operations Manager und Configuration Manager befüllt werden kann.
    Auch typische IT Prozesse werden über den Service Manager geroutet und entsprechen damit mehr der normalen Arbeitsweise - zumindest, wenn man sich ein prozessorientiertes Arbeiten nach ITIL oder MOF angewöhnt hat. Dadurch stellt der Service Manager eine wichtige Ergänzung der System Center Familie dar.

    Bis die System Center Produkte allgemein verfügbar werden, dürfte es aber noch bis etwa Juni dauern. Im Wesentlichen ist das eine Frage der Preisliste und der damit verbundenen veröffentlichten “Product Use Rights” (PUR). Mit der deutschen Version ist dann etwas später zu rechnen. Essentials ist ja ein Produkt, das (noch) in einzelnen Sprachen gefertigt wird – im Gegensatz zu zum Beispiel dem Virtual Maschine Manager oder dem Data Protection Manager.

    Aber damit sind wir ja noch lange nicht fertig…

    Bald wird auch die nächste Version des SQL Server (SQL Server 2008 R2) verfügbar werden. Auch hier gibt es viel Neues. Mein Kollege Steffen Krause ist deshalb im May auf Veranstaltungstour, um über die Neuerungen zu informieren – es gibt also wieder ein paar sehr spannende TechDays… Wenn es die Zeit erlaubt, könnte auch er schon die fertige Version zum Zeigen dabei haben.

    Was bedeutet das nun für den IT-Professional?

    Verschiedenes… Einmal ergeben sich durch neue Produkte natürlich viele Vertriebschancen für Lizenzen und Projekte, aber auch eine Menge, was es zu lernen gilt. Dadurch, dass die Produkte jetzt fertig sind, werden sie speziell über die Abo Kanäle TechNet und MSDN bald verfügbar. Bis der Markt sie kaufen kann, dauert es jeweils noch ein paar Wochen, quasi die letzte Gnadenfrist sich vorzubereiten. Notwendige Informationen stehen bereit - auch auf den deutschen Seiten des TechNet Portals oder im deutschen System Center "TechCenter".

    Auf der anderen Seite belohnen wir ja die sogenannten “Early Adopter” auch mit Unterstützung durch das IT-Pro Momentum Programm – Einladungen werden auf Nachfrage von mir und meinen Kollegen ausgesprochen.

  • Impressum

    Microsoft Deutschland GmbH
    Konrad-Zuse-Straße 1
    85716 Unterschleißheim

    Tel.: +49-89-3176-0
    Fax: +49-89-3176-1000

    Vertretungsberechtigter: Christian P. Illek
    Amtsgericht München, Handelsregisternummer: HRB 70438
    Umsatzsteueridentifikationsnummer: DE 129 415 943
    E-Mail-Adresse: kunden@microsoft.com oder Kontakt über unser Formular

    Inhaltlich Verantwortlicher für diesen Weblog gemäß § 55 RStV: Michael Korp (Anschrift wie oben).
    E-Mail-Adresse: mkorp@microsoft.com

    Weitere Informationen und Hinweise zu Urheberrecht, Copyright etc. finden Sie hier.

  • Stichwort “Deployment”… (Windows Desktop Deployment)

    Vor gut einem Jahr erschien Windows 7 auf dem Markt. Alle waren überzeugt davon, dass dies das bisher beste Windows ist. Auch bei den Analysten herrschte Einigkeit darüber, dass Windows 7 das Betriebssystem ist, auf das man setzen sollte. Als Zeitfenster für eine empfohlene Migration wurde 2010/2011 genannt. Vielfach wurde auch direkt befürchtet, dass die verfügbaren qualifizierten Ressourcen knapp werden, wenn alle mit ihren Projekten starten.

    Jetzt, ein Jahr später, sind wir anscheinend mitten drin. Die Anfragen und Termine rund um die sogenannte Desktop Strategie häufen sich. Microsoft Partner mit denen ich gelegentlich spreche sind stark beschäftigt oder finden sogar nicht genug qualifizierte Leute um die anstehenden oder nachgefragten Projekte zu bedienen.

    Was tun wir, damit Sie erfolgreich sein können? Verschiedenes – je nachdem, wer dies gerade liest.

    In der kommenden Woche findet das NT-AG Anwendertreffen statt. Ein Schwerpunkt ist dabei das Thema Deployment – frei nach dem Motto “aus alt mach neu”.
    Diese Veranstaltung ist exklusiv den Mitgliedern der NT-AG Usergroup vorbehalten, aber Sie können ja auch Mitglied werden, wenn Sie es nicht schon sind.

    Anfang Dezember veranstalten wir (Microsoft TechNet) einen virtuellen TechDay zu dem Schwerpunktthema Deployment. Dort werden dann die wichtigsten Themen behandelt, mit denen man typischerweise in der Praxis konfrontiert wird, wenn man sich dem Thema Deployment und Migration widmet. Auch die Kompatibilität von Anwendungen gehört dazu, also nicht nur das Bereitstellen von Windows 7 und Office 2010 mit allem, was dazu gehört.
    Warum “virtuell” und nicht als Tour durch Deutschland? Per TechNet Newsletter wurden viele Leute gebeten, Ihre Wünsche zu äußern. Nach der Konsolidierung am Ende kristallisierte sich heraus, dass viele Leute gerne von ihrem Arbeitsplatz aus, möglichst am späten Nachmittag oder frühen Abend, gerne auch später noch offline, sich mit dem Thema beschäftigen wollen. Interaktion, also die Möglichkeit Fragen zu stellen und beantwortet zu bekommen, war auch wichtig, weswegen das reine Videogucken ausscheidet. Wenn man dann berücksichtigt, dass auch die Reiseaufwände zu einer Veranstaltung erheblich sein können – wir bekommen immer wieder die Frage warum nicht auch in <bitte hier Ihre Stadt einsetzen>? – wird klar, dass virtuelle TechDays vermutlich eine sehr gute und sinnvolle Ergänzung des bisherigen Formates sind. Auch hier bleiben die Aufzeichnungen nachher für die offline Ansicht erhalten, aber es gibt auch die Möglichkeit der direkten Teilnahme per Chat, wenn man sich registrieren mag.

    Speziell an Partner und auch die Learning Partner, also typische “Multiplikatoren”, wendet sich ein Angebot, dass wir für den 25. November hier in München vorbereiten – einen eintägigen Deplyoment Workshop. Die Kommunikation und Einladung dazu läuft über die entsprechenden Kanäle. Aber – keine Sorge, alle anderen können sich die Inhalte auch aneignen. Unsere Learning Partner bieten dazu qualifizierte Schulungen an. Als Basis steht dafür der Microsoft Official Curriculum (MOC) Kurs 10220A (Planen und Verwalten von Windows 7-Desktopbereitstellungen und -umgebungen) zur Verfügung.

  • Die Welt im Wandel – Schöne neue Welt…

    Es wird ja immer wieder diskutiert, ob sich die klassischen Kommunikationswege überholt haben. Wer kauft noch ein Buch oder eine CD, DVD, Zeitung – gibt doch alles online und meistens “umsonst”. In gewisser Weise stimmt das sicherlich auch. Gab es früher die berühmten Meterware namens Redbooks, findet man heute Dokumentationen (von wichtigen Warnhinweisen mal abgesehen) meistens nur elektronisch oder online. Hat ja auch Vorteile – man muss nicht mehr nachsehen, ob man auch die aktuelle X.te Auflage hat oder aber monatlich mühsam Loseblattsammlungen aktualisieren, es gibt alles per Online Suche in der hoffentlich aktuellen Form. Einen Nachteil gibt es aber auch, in der schnelllebigen IT Welt aber (noch) weniger relevant: Ein 10 Jahre altes Druckwerk steht vielleicht noch im Regal oder wurde in einem kalten Winter einer anderen Verwendung zugeführt, ältere elektronische Dokumentation ist häufig genug aber gar nicht mehr aufzutreiben, da auch die Caches der Suchmaschinen nur eine begrenzte TTL (time to live) haben.

    Mit der “Erfindung”, man sollte wohl besser sagen der “zweckgebundenen Entdeckung” von Blogs wurde vieles an Dokumentation an Blogs ausgelagert. Viele Leute machen viele Erfahrungen. Auf diese Weise ergibt sich durch Aggregation das vollständige Bild. Mag ja auch stimmen. Irgendwann kommt dann nur die Frage, welche Aussage denn jetzt als verbindlich betrachtet werden darf…

    Was mich dann aber doch ein wenig überrascht hat, war die Tatsache, dass jetzt technisches Know-How sogar über die “sozialen Medien”, in diesem Fall Facebook, verbreitet werden. Soll nicht heißen, dass ich das schlecht finde – es hat mich einfach überrascht. In diesem Fall positiv, weil mir ansonsten die Info nicht so schnell aufgefallen wäre. Daher hätte es einen Blogpost von mir dann vermutlich auch nicht, oder zumindest nicht jetzt, gegeben. So bin ich aber bei Facebook über einen Eintrag von Torsten Meringer gestolpert, seines Zeichens Microsoft MVP (Microsoft Most Valuable Professional) für den System Center Configuration Manager. Das wiederum hat mich dann zu einem ergänzenden Blogpost motiviert…

    Was spricht aber für die weitere Existenz der gedruckten harten Ware? Ich denke, dafür muss man nur mal Bus oder Bahn fahren. Ich glaube kaum, dass man dort elektronische Kopien beliebter beBILDerter Werke finden wird, selbst wenn betroffene Fachleute davon ausgehen, dass bald das ePaper billiger als das Bedrucken von konventionellem Papier sein wird.

  • Performance für virtuelle Netzwerke im Hyper-V

    Man sucht etwas, liest verschiedenes und stolpert über einiges, was interessant sein kann, zumindest für den einen oder anderen…

    So auch dieser Punkt. Bei der Suche nach Informationen zur Programmierung des Windows Virtual PC (siehe Post von vorhin) habe ich auch bei Ben Armstrong (Virtual PC Guy) nachgesehen und bin über den Hinweis auf einen Post gestolpert, der sich auf dem Blog des Windows Server Performance Team befindet. Was es nicht so alles gibt, aber das ist das Problem der “neuen Welt”. Verteiltes Wissen, aber dokumentiert in vielen verteilten Blogs.

    Thema: Wie kann man den Durchsatz virtueller Netzwerke unter Last optimieren. Wichtig: Es geht um virtuelle Maschinen, die unter Netzwerk I/O Last stehen, also nicht um die “normalen” Maschinen, die gelegentlich mal ein paar (Mega) Bytes über das Netzwerk schaufeln.

    Auch hier hilft die richtige Konfiguration, in diesem Fall die Konfiguration der verwendeten Puffer Größe für den VMBus. Bevor ich jetzt alle Infos dupliziere, hier der Link zu dem Post.

  • Update von Virensignatur legt Rechner lahm…

    Nein, ich werde jetzt nicht schadenfroh auf die Firma zeigen, die eine Kernkomponente von Windows (svchost.exe) zum Virus erklärt hat!

    Mein Punkt, wenn man mal mit Abstand auf die Situation blickt, ist die Frage, wo der eigentliche Fehler lag, bzw. wie man die Konsequenzen – den Ausfall – minimieren oder vermeiden kann.

    Ohne Diskussionen – richtig ist, dass Sicherheitsupdates, Virenscanner und deren Signaturupdates eine zentrale Rolle bei der Sicherheit von IT Infrastrukturen darstellen. Hier gibt es einfach keine Alternativen – außer man zieht jeden Netzwerkstecker, schalten WLAN ab und verschrottet seine UMTS und ähnlichen Geräte.

    Aber: Jedes Update stellt einen Change Prozess dar! Wenn man es jetzt formal betrachtet, muss jeder “Change” beantragt und begründet, bewertet und freigegeben werden. Danach kommen “Entwicklung”, Test, Freigabe und Verteilen. Bei “einfachen” Vorgängen, wie Updates, wird man das natürlich verkürzen, die Frage ist halt nur, ob man das soweit verkürzen darf, dass eine vollautomatische Freigabe und flächendeckende Verteilung daraus wird.

    Hätte man in so einem Fall zum Beispiel zwei Update Gruppen gebildet, die die Updates zeitlich versetzt bekommen, hätte die erste Gruppe zwar auch Probleme gehabt, die zweite Gruppe aber vermutlich nicht mehr, weil inzwischen genügend Erkenntnisse vorhanden gewesen wären, um das Problem zu vermeiden. Macht man die erste Gruppe genügend klein (aber ausreichend groß, um einigermaßen repräsentativ zu sein), lässt sich der Schaden durchaus begrenzen.

    Natürlich gibt es dann auch hier noch ein Restrisiko. Einmal, dass einzelne gefährdete Rechner zu lange nicht ausreichend geschützt sind, zum anderen, weil bestimmte Probleme vielleicht eine bestimmte Kombinationen von Ereignissen benötigen um sichtbar zu werden. In beiden Fällen lässt sich das Risiko aber bewerten und es ist mit hoher Wahrscheinlichkeit erheblich geringer als ein reproduzierbarer Serienfehler.

    Auf der anderen Seite fällt mir in solchen Fällen auch immer wieder eine Aussage von einem IT Verantwortlichen bei einem Kunden ein, bei dem ich mal vor einigen Jahren bei einem strategischen Briefing zum Thema Sicherheit involviert war: Wenn es eine kritische Sicherheitslücke gibt, die ein gefährdetes System (hier: Server am Internet) betrifft, werde ich den Fix dafür einspielen, sobald verfügbar, auch, wenn die Anwendung auf dem Server danach nicht mehr fehlerfrei funktioniert. Warum? Weil man danach immer noch die Probleme der Anwendung korrigieren kann, der Schaden durch ein kompromittiertes Systeme, das zum Beispiel Kundendaten verarbeitet, die abhanden kommen, missbraucht oder verändert werden können, ist dagegen sehr viel schwerwiegender.

    Am Ende haben aber auch solche Stories immer irgendwo auch etwas Positives. Wenn man meint, jetzt kommt es besonders “dick”, merkt man, dass zumindest in Teilen noch nicht alles verloren ist, weil “Leute” immer noch Wege finden kritische Aufgaben zu lösen. Der Bericht aus dem "Tagebuch".

    Der Vollständigkeit halber: Betroffen war nur Windows XP SP3. Doku und Fix: KB2025695

    In dem Sinne…

  • Launch Tour rund um Windows 7, Server 2008 R2, Exchange 2010, Forefront, etc. – Online Inhalte

    Auf unserer Launch Tour haben wir ja in drei parallelen Tracks viele verschiedene Vorträge gehalten – zu viel, um sich alles anzusehen. Daher gibt es die Inhalte des Launch auch als virtuellen Launch, in dem die Vorträge als Video mit PowerPoint verfügbar sind. Hier der Link zum virtuellen Launch.

    Der Vorteil: Alle, die aus den verschiedensten Gründen nicht zu einem der Tour Termine konnten, können sich auf diese Weise zumindest die Vorträge ansehen…

    Viel Spaß beim Verfolgen der verschiedenen Sessions!

  • Tech∙Ed Europe - es geht los...

    Tech∙Ed Europe, 8. - 12. Nov. 2010, Berlin

    Das Microsoft Management Summit (MMS) ist gerade vorbei, die Tech∙Ed in Amerika nähert sich (7.-10. Juni 2010) und der eine oder andere überlegt vielleicht schon, auf welcher Konferenz er lieber wäre… Eine Option fällt dieses Jahr wohl ziemlich sicher aus – die nächste PDC (Professional Developer Conference).

    Leider spuckt der Vulkan ja immer noch genug Asche, so dass, je nach Wetterlage, weiterhin mit Beeinträchtigungen zu rechnen ist – viele wollten ja zum MMS und konnten nicht, da die Flüge ausgefallen sind. Wer dieses Risiko minimieren will hat eine Chance mit der europäischen Version. Hier die “offiziellen” Worte:

    Bereits seit 17 Jahren findet inzwischen die Tech∙Ed Europe, die größte europäische Konferenz von Microsoft für IT-Pros und Entwickler, statt.

    Wir freuen uns, dass wir auch in diesem Jahr Gastgeberland sind und erneut tausende von IT Begeisterten in Berlin begrüßen dürfen. Vom 8. bis 12. November  2010 stellt Microsoft im Convention Center der Messe Berlin technische Neuerungen im Detail vor und gibt einen Ausblick auf zukünftige Technologien. 

    Die Tech·Ed Europe war 2009 mit mehr als 7.000 Teilnehmern einmal mehr ein großer Erfolg. Im vergangenen Jahr wurden Entwicklern und IT-Professionals mehr als 300 Break-Out-Sessions sowie über 300 Partner-Sessions und Networking-Möglichkeiten geboten.

    Erste Details zum Programm für dieses Jahr werden in den kommenden Wochen veröffentlicht.

    Die Anmeldung ist seit Mittwoch, 19.05.2010  auf der offiziellen Homepage möglich.

    Wer sparen möchte, sollte sich die verschiedenen Early Bird Angebote und Fristen genau ansehen. Das erste (und vermutlich beste) Angebot läuft bis zum 5. Juli 2010…

  • Update für den AD RMS Client

    Stichwort: Sicherheit… Auch ich habe ja schon verschiedentlich meine Meinung zum Thema Sicherheit kundgetan und auch, wie man seine Daten schützt.

    Festplattenverschlüsselung hilft Daten zu schützen, wenn die Platte verloren geht. Windows kann das ja seit Vista mittels Bitlocker. Seit Windows 7 können wir auch “entfernbare” Geräte wie USB Sticks (oder “Thumb Drives”) per Bitlocker-to-Go verschlüsseln.

    Auch, wenn das wichtige, sogar zentrale, Technologien sind, um wichtige Unternehmensdaten zu schützen, ist der Schutz des Dokumentes und seiner vorgesehenen Verwendung mindestens genauso wichtig – und hier kommen die Rights Management Services vom Active Directory ins Spiel. Da beim existierenden Client bald das Ablaufdatum des Anwendungsmanifest erreicht wird, sollte man kurzfristig das entsprechende Update einspielen. Die Details finden sich im Knowledgebase Artikel 979099.

  • Newsgroups waren gestern… (bei Microsoft)

    Weil es wichtig ist und potentiell viele Nutzer betrifft, ein kurzer “me too” Artikel mit dem Querverweis auf den Beitrag unseres “Mister TechNet” Lars Schmoldt. Microsoft wird sich von der Verwendung der Newsgroups verabschieden und alternativ auf die Verwendung von Foren setzen.

    Im Kern geht also nichts verloren, sondern es ändert sich nur die “Form der Darbietung”…

    Also: Mehr Details liest man hier oder in dem nächsten TechNet Newsflash, der morgen erscheint.

  • Stichwort Deployment – brauche ich das überhaupt noch?

    Viele Gespräche rund um die zukünftige Desktop Strategie drehen sich um das Thema Virtualisierung. Dahinter steht häufig die Erkenntnis, dass Desktop Deployments und Migrationen als komplex, aufwändig und teuer wahrgenommen werden. Virtualisierung auf zentral bereitgestellte Server scheint da die einfache Lösung zu sein, die alle Probleme löst.

    Ich behaupte zwar, zumindest höre ich das immer wieder aus den vorgebrachten Argumenten heraus, dass dies in vielen Fällen daran liegt, dass man noch auf dem Stand von Windows XP ist, was das Wissen, die Werkzeuge und die Prozesse betrifft. Nutzung der aktuellen Möglichkeiten, also imagebasierte Installationen von Windows 7, das sogenannte “offline Serviceing”, also die offline Integration von Treibern und Updates in das Installationsimage vor der Installation, die Automation des Verteilprozesses per PXE Boot mit Multicast und Automation der Installation über das Microsoft Deployment Toolkit 2010 (Minimum) oder den System Center Configuration Manager 2007 (empfehlenswert für mittlere bis große Unternehmen) dürfte viele der bekannten Probleme adressieren und auch die benötigte Zeit und die Kosten für die Migration optimieren, bzw. minimieren. Auch der darauffolgende Betrieb lässt sich mit den richtigen Werkzeugen (System Center Configuration Manager, App-V, WSUS) in optimierter Weise sicherstellen. Man sollte nicht vergessen, dass auch virtualisierte Clients umfassend verwaltet werden müssen – nur kommt hier die Verwaltung der Server noch dazu.

    Aber egal – das war nicht das, was ich hier erzählen wollte… Und: Die Virtualisierung – nicht zu vergessen, dass auch das oben genannte App-V eine Virtualisierungstechnologie ist – ist in vielen Fällen eine sinnvolle und auch notwendige Ergänzung für die sonstigen Desktopsysteme.

    Auf der TechEd, die diese Woche in Berlin stattfindet, wurden auch Details rund um das Service Pack 1 des Windows Server 2008 R2 erläutert. Für den Bereich der Desktop Virtualisierung (VDI) gibt es hier nennenswerte Verbesserungen. Zitat: “Hi, I’m Michael Kleef, senior technical product manager within the Windows Server and Cloud division. As Brad Anderson and I discussed at the TechEd Europe keynote today, Dynamic Memory, a new feature in Windows Server 2008 R2 SP1, can increase Virtual Desktop Infrastructure (VDI) densities by 40% compared to Hyper-V in Windows Server 2008 R2 and also well above a leading industry solution.
    Den ganzen Blog Post kann man hier nachlesen.

    Es gibt also eine Menge spannender Dinge, die auf “uns” IT-Pro’s” warten…

  • Thema Sicherheit: Aktueller Internet Explorer Patch

    Keine Sorge, ich möchte jetzt nichts zu dem Patch oder der zugrunde liegenden Lücke ergänzen, da hier bestimmt schon genug gesagt wurde, aber ein paar Gedanken sind mir dann doch durch den Kopf gegangen, die mir wichtig genug sind, sie hier niederzuschreiben.

    Ein wenig “verrückt” habe ich das Ganze schon erlebt, aber das kommt daher, dass ich dieses Ereignis wie auch die Katastrophe in Haiti irgendwie eher am Rande bemerkt habe, da ich zur Zeit noch auf Reisen bin und daher fast keine Nachrichten mitbekomme. Interessant fand ich aber, dass ich hier an der amerikanischen Westküste von “Leuten” auf die deutsche Reaktion dazu angesprochen wurde. Bemerkenswert, dass ein Software Problem aus Deutschland heraus solche Wellen schlägt.

    Aber was sind jetzt meine Punkte, weswegen sich das Lesen lohnen sollte?

    Zugegeben: Von IE6 bis IE8 war das Problem vorhanden. Ausgenutzt wurde es aber nur mit dem IE6. Warum? Weil die neueren Browser, speziell der IE8, hier weiterentwickelte Schutzmechanismen enthalten. Außerdem wirken hier noch spezielle Schutzmechanismen von Vista und Windows 7 hilfreich mit.

    Trotz aller Updates darf man nicht vergessen, dass die Architektur vom IE6 mit Windows XP entstanden ist – und das war Anfang des Jahrtausend. Heute, knapp 10 Jahre später, habe sich die Methoden und Kenntnisse der Angreifer entsprechend weiterentwickelt.

    Manch einen mag wundern, dass der IE8 trotz der Lücke “sicherer” ist. Aber das passt zu dem Thema, wie Sicherheit in allen Infrastrukturen implementiert werden sollte – als mehrstufiges geschachteltes System, manchmal auch mit “Defense in Depth” bezeichnet. Wird eine Barriere überwunden, steht die nächste da und hält den Eindringling (hoffentlich) auf. Interessant fand ich da eine (nicht zitierfähige ;) ) Quelle, deren Tests ergeben haben, dass unter Laborbedingungen auch die neueren Kombinationen (IE + OS) gelegentlich infiltriert werden konnten, es dafür aber mehrere hundert Versuche bis zu einem jeweiligen Erfolg bedurfte und jeder erfolgreiche Versuch dann von Microsoft Security Essentials bemerkt wurde. Ein guter aktueller Virenscanner ist also eine weitere Hürde, die sich dem Angreifer in den Weg stellt – es gibt hier sicherlich auch Alternativen zu Security Essentials, aber dieser wurde in dem Zusammenhang genannt. Eine Sicherheitsgarantie, im Sinne eines Freibrief, ist das aber auch nicht. Schon aber ein etwas beruhigendes Gefühl.

    Wichtig bleibt aber auf jeden Fall eine Feststellung: Sicherheit ist kein Zustand, den man einmal erreicht hat, sondern bedarf einer regelmäßigen Weiterentwicklung. In Dingen Software heißt das Aktualisierungen, also zumindest Service Packs und regelmäßige Updates. Daher sträuben sich mir auch die Nackenhaare, wenn ich im Fernsehen (auf einem regionalen Kanal im Kabel gesehen) einen Experten höre, der allen Ernstes den Zuschauern empfiehlt Windows Update (neben anderen Dingen) abzuschalten, da es den Rechner unnötig belastet und man es eh nicht braucht. Das ist übrigens kein Jahr her, fällt also nicht in die Zeit, wo jeder hinter allen Dingen eine bösartige, oder zumindest Spionage trächtige, “phone home” Angelegenheit vermutet hat.

    Die Administratoren haben jetzt leider etwas Arbeit, da sehr bald nach dem Bekanntwerden von uns der außerplanmäßige, da kritische, Patch veröffentlich wurde. Ich habe ihn dann gestern morgen (GMT-8) installiert, seit heute ist er bei uns dann verpflichtend. Akute Probleme bedürfen einer beschleunigten Behandlung…

    Manche einer ist vielleicht dem Rat der Nachrichten gefolgt und hat direkt nach der Tagesschau einen anderen Browser installiert. Zumindest muss man das vermuten, da nach den hiesigen Nachrichten deren Download Zahlen deutlich nach oben gegangen sind. Aber: Erinnert sich noch jemand daran, dass vor noch nicht allzu langer Zeit der IE8 der einzige Browser war, der eine bestimmte (kritische) Sicherheitslücke nicht hatte? Mein Kollege Daniel Melanchthon hat damals dazu etwas geschrieben. Fazit: Jeder Browser hat Sicherheitslücken. Wichtig ist, dass man sich darüber im Klaren ist und dementsprechend verhält. Dazu gehört einmal das Aktualisieren der Software (s.o.) und vielleicht auch eine gewisse “Hygiene” im Umgang mit dem Internet. So erstaunt mich immer wieder, dass wohl viele Leute immer noch auf alles klicken, was sich irgendwie anklicken lässt. Sorry für diese plakative Formulierung. Aber in diese Kategorie passt auch eine andere “Erkenntnis”, die ich meinem hiesigen Aufenthalt verdanke: eine aktuelle Variante des “social engineering” für Angriffe auf Nutzerdaten und Kennwörter heißt: Facebook (oder die diversen anderen sozialen Netzwerke). Dort erfährt man anscheinend praktisch alles über die verschiedenen Personen, was man wissen muss, um Kennwörter oder die berühmten geheimen Fragen zu beantworten.

    Ich hoffe, der eine oder andere stimmt mir im Prinzip zu, ansonsten darf er gerne einen Kommentar verfassen.

    Auf eine etwas sichere Zukunft…