DHCP oder nicht DHCP – das ist hier die Frage! In den sechs Jahren, die ich bei Microsoft IT angestellt war, herrschte dort ein Konsens: alles mit DHCP, was irgend möglich ist, auch Server. Ich schien der einzige zu sein, der die Meinung vertrat, alle Server seien so statisch wie irgend möglich zu konfigurieren, und der sämtliche Netzwerk-Interfaces manuell konfigurierte. Sehr gut erinnere ich mich noch an den Kommentar meines Nachfolgers, den ich hier aus Gründen des Jugendschutzes leider nur mit ‘Beeeeep!!!’ wiedergeben kann …

Ein ernsthafter Versuch einer Antwort auf diese Frage muß mehrere Aspekte berücksichtigen. Der einfachste ist der rein technische Aspekt: es gibt einige Server-Rollen, die zwingend eine statische IP-Konfiguration benötigen. Dazu gehört DNS, aber z.B. auch DHCP (Router adressieren DHCP-Anfragen bei der Weiterleitung an statische IP-Adressen). Die meisten Server-Rollen benötigen dagegen keine statische IP-Konfiguration, das gleiche gilt für die meisten Server-Applikationen. Aus diesem – recht einseitigen - Blickwinkel betrachtet ist die Antwort leicht: DHCP immer dann, wenn’s technisch möglich ist.

Ein anderer Aspekt ist die Überlegung, daß es einen grundlegenden Unterschied zwischen Client- und Serversystemen gibt, der wiederum eine grundsätzlich andere Zielsetzung bei deren Konfiguration und Verwaltung mit sich bringt. Clientsysteme sind sehr häufig dynamische Systeme. Ihre Software unterliegt einer relativ hohen Änderungsrate, wechselt zum Teil mit jeder neuen Benutzeranmeldung, Treiber und ggf. Firmwareversionen werden häufig aktualisiert, Notebooks werden oft auch physikalisch bewegt. Eine statische Konfiguration widerspricht ein gutes Stück weit der Zielsetzung eines Desktop-Systems. Nicht umsonst bietet gerade die Desktop- und Applikationsvirtualisierung ein so großes Potential zur Wertsteigerung und gleichzeitiger Kostenreduktion für Desktopsysteme: die Entkoppelung der Applikationen untereinander und vom Desktop selbst erlaubt eine noch größere Flexibilität. Natürlich gibt es auch relativ statische Desktop-Systeme. Je intensiver die IT jedoch den Erfolg eines Unternehmens mitbestimmt, desto mehr ist Flexibilität und Dynamik auf dem Desktop ein wesentlicher Mehrwert.

Server hingegen sind Systeme, bei denen Änderungen sehr viel seltener – und dann mit sehr viel mehr Aufwand für Tests und Fall Back-Prozeduren – durchgeführt werden. Das liegt auch daran, daß Server oft zahlreiche und komplexe Abhängigkeiten untereinander aufweisen, was dazu führt, daß Änderungen mitunter zu erstaunlichen Resultaten führen. Die Erfahrung lehrt jeden Administrator früher oder später, daß Dynamik im Server-Umfeld gleichzusetzen ist mit Unberechenbarkeit. Statische Konfiguration führt zu vorhersagbarem Verhalten und – bei ausreichend guter Planung – zu mehr Verfügbarkeit. Das gilt für IP-Konfiguration genauso wie z.B. für SANs und Host Bus Adapter.

Selbstverständlich funktioniert ein Server im Normalfall zuverlässig, auch wenn seine Netzwerk-Konfiguration über DHCP durchgeführt wird. Es existiert jedoch dann eine zusätzliche Abhängigkeit zu DHCP, und damit gibt es eine ganze Reihe von Möglichkeiten, über diese Abhängigkeit den Server nachhaltig zu stören: DHCP fällt aus, der Scope hat zu wenige Adressen, ein DHCP-Restore löscht die Informationen über bereits vergebene Adressen und der DHCP-Server vergibt diese dann doppelt, …, … diese Liste kann man durchaus noch verlängern.

ITIL und administrative Erfahrung lehren uns, daß Verfügbarkeit und Zuverlässigkeit nur dann nachhaltig gesteigert werden können, wenn Abhängigkeiten zwischen Systemen so weit wie möglich reduziert werden und die verbleibenden Abhängigkeiten vollständig dokumentiert und proaktiv verwaltet sind. Aus diesem Grund habe ich für mich die Frage “DHCP oder nicht DHCP?” umgekehrt – zu rechtfertigen ist die dynamische Konfiguration, nicht die statische. Bei Desktop-Systemen, zumal bei Notebooks, macht eine statische Konfiguration schlichtweg keinen Sinn, daher ist der Einsatz von DHCP die logische Konsequenz. Daß das bei Server-Systemen anders ist, zeigt wiederum beispielhaft eine Erfahrung aus meiner Zeit bei Microsoft IT. Dort war ein Server in einer Zweigstelle mit DHCP über das WAN konfiguriert. Murphy hat das gesehen, das WAN fiel aus, und obwohl alle benötigten Dienste und Daten lokal auf dem Server vorhanden waren, konnte nach kurzer Zeit kein Benutzer mehr arbeiten. Der zuständige Kollege versuchte dann, über ein Modem auf das Management-Interface des Servers zu kommen, um nachträglich eine statische IP-Konfiguration und einen DHCP-Scope zu konfigurieren. Nur war das Management-Interface ebenfalls per DHCP konfiguriert und somit ebenfalls nicht erreichbar …

Auch im Rechenzentrum ist übrigens Virtualisierung das wichtigste Mittel, um Dynamik und Zuverlässigkeit gleichermaßen zu realisieren. Die Entkoppelung von Hardware und Betriebssystemen dient genau diesem Ziel, und Applikations-Virtualisierung für Server-Applikationen oder sogar Server-Rollen ist eine Technologie, deren Einzug ins Rechenzentrum im Laufe der nächsten Jahre absehbar ist.

Mit freundlichen Grüßen!

 

Ralf M. Schnell