
Transcription
Server-Virtualisierung undNetzwerk-ManagementWhite-PaperAutor: Dirk Paesslerveröffentlicht im August 200[email protected] network monitoring company
INHALTEinführung3Gründe für die Virtualisierung von Servern4Netzwerk-Monitoring und Virtualisierung6Virtualisierung in der Praxis6Konzentration von Applikationen6Speicherlösungen bei Virtualisierung6Zur Virtualisierung ungeeignete Applikationen8Virtualisierung und Ressourcen-Management8Virtualisierung und Software von Paessler9Über die Paessler AGDie Paessler AG mit Sitz in Nürnbergentwickelt Software für dieBereiche Netzwerküberwachungund Webserveranalyse seit 1997.Weltweit setzen mehr als 150.000Administratoren, Webseitenbetreiber,Internet Service Providerund andere IT-VerantwortlichePaessler Software ein. Freeware undTestversionen aller Produktekönnen unterwww.de.paessler.comheruntergeladen werden.Server-Virtualisierung und Netzwerk-ManagementSeite 2
EinführungServer-Virtualisierung ist aktuell derwohl wichtigste Trend bei Technologien für Rechenzentren. Gartnerprognostiziert der Virtualisierungbis 2012 von allen neuen Technologien den größten Einfluss aufIT-Infrastrukturen und -Betrieb.Bei erfolgreichem Einsatz hatServer-Virtualisierung trotz allerEinschränkungen eine sehr positiveWirkung sowohl auf Energiekostenals auch auf die Kapazität vonRechenzentren. Server-Virtualisierung kann die Lebensdauer ältererRechenzentren verlängern und beigroßen Unternehmen mit mehrerenRechenzentren unter Umständensogar ganze Rechenzentren einsparen.Und das ist erst der Anfang, dendie erste Generation von Virtualisierungs-Technologien ermöglicht.Eine zweite Generation, die denEinsatz multipler virtueller Server mit einer einzigen Lizenz desBetriebssystems erlaubt, versprichteine weitere Konsolidierung. Dieskann soweit gehen, dass 50 bis100 virtuelle Server auf einemphysikalischen Rechner betriebenwerden, der derart rechenintensiveApplikationen verarbeiten kann,dass bei der ersten VirtualisierungsGeneration daran noch gar nicht zudenken ist.Virtualisierung befreit Applikationen von den Einschränkungen, dieihnen ein einzelner physikalischerServer auferlegt. Sie erlaubt denBetrieb mehrerer Applikationen aufeinem Server oder einer ganzenReihe von Servern und erschließtso einer Applikation die Ressourceneines ganzen Netzwerks.Eine der Aussichten der Virtualisierung ist die Möglichkeit, dassApplikationen dynamisch je nachAnforderung und verfügbarenRessourcen von einem Server aufeinen anderen wechseln ohne dassdadurch der Service unterbrochenwird.Wenn bei der Virtualisierung eineApplikation (was meist einemvirtualisierter Server entspricht)über mehrere Host-Server verteiltbetrieben werden soll, verlangt diesals Speicherlösung die Nutzungvon SANs (Storage-Area Networks),die die Daten über das Netzwerkübertragen. Damit rücken Netzwerke weiter in den Mittelpunkt derIT-Infrastruktur und –Architektur.Unter Sicherheitsaspekten betrachtet erzeugt die Konzentrationmultipler Anwendungen auf einemeinzigen Rechner einzelne, zentrale Risikopunkte sowohl über denphysikalischen Server als auch überdessen Netzwerkanbindung.Stürzt ein Host-Server ab oder wirdseine Netzwerkverbindung langsamoder gar unterbrochen, so sinddavon sofort alle auf diesem Hostvirtualisierten Dienste betroffen.Für die Netzwerkplanung bedeutetdas, dass sich der Netzwerkverkehrauf wenige große Server konzentriert statt auf eine große Anzahlkleinerer Computer im Rechenzentrum verteilt zu werden.Meist ist der Betrieb von Virtualisierung viel effektiver mit alleinstehenden Speicherlösungen (SAN) alsmit „Attached-Storage-Lösungen“(d. h. jeder Server hat seinen eigenen Plattenspeicher). Der Betriebmit SAN erfordert aber sehr schnelle und zuverlässige Netzwerkverbindungen zwischen Servern und denSpeichermedien. Unternehmen,die im Rahmen der Virtualisierungvon Attached Storage Lösungen zuSANs wechseln, generieren damiteinen enormen Anstieg ihres Netzwerkverkehrs.LinkGartner prognostiziert derVirtualisierung bis 2012 von allenneuen Technologien den größtenEinfluss:www.gartner.com/it/page.jsp?id 638207Server-Virtualisierung und Netzwerk-ManagementSeite 3
All dies erfordert verstärkt einekonsequente Überwachung desNetzwerks.Eine in hohem Maß virtualisierteUmgebung steht und fällt mit derEffizienz und Zuverlässigkeit ihresNetzwerks. Ausfälle von physikalischen Servern, Verbindungen,Switches oder Routern könnenteuer werden, wenn dadurch Mitarbeiter, automatisierte Produktionsstraßen oder Internet-Shops keinenZugang mehr zu unbedingt betriebswichtigen IT-Funktionalitätenhaben.Netzwerk-Monitoring kann entscheidende Informationen für diePlanung und den Test virtualisierter Umgebungen liefern. So istes beispielweise von wesentlicherBedeutung zu ermitteln, welcheApplikationen sich nicht für eineVirtualisierung eignen. Umfang undArt des Netzwerkverkehrs könnenwichtige Hinweise zur Identifizierung dieser Anwendungen liefern.Gründe für dieVirtualisierungvon ServernDie inzwischen „erwachsen“ gewordene Technologie der Server Virtualisierung kommt wie gerufen fürIT-Unternehmen und –Abteilungen,die unter wachsendem Kostendruckstehen. Unter den Gesichtspunkteneiner sich anbahnenden weltweitenRezession, ständig steigenden Energiekosten und vieler Rechenzentren, die an Ihre Grenzen stoßen,bietet sie eine entscheidende Möglichkeit, Rechenzentrums-Kostenzu sparen.Virtualisierung kann auch das Problem der zuwenig genutzten Serverlösen, das vor allem in Rechenzen-tren mittlerer und großer Unternehmen immer häufiger auftritt. DieServer vieler nicht virtualisierterUmgebungen haben oft weniger als20% durchschnittliche Auslastung.Die Konsequenz ist eine enormeEnergieverschwendung, die sichquasi verdoppelt, da jedes verbrauchte Kilowatt Wärme erzeugt,die wiederum entsprechendeKühlung benötigt, um die optimaleArbeitstemperatur für die Server zuschaffen.Dies hat ernste Auswirkungen aufdie Lebensdauer von Rechenzentren, da immer mehr Unternehmenbei Energie, Kühlung und oft auchschon beim Raum sparen müssen.Virtualisierung verhindert diesesProblem, indem sie die Verwaltungmehrerer Applikationen auf einemServer und die Verteilung der verfügbaren Ressourcen automatisiert.Damit können IT-Abteilungen ihreServer-Ausnutung auf bis zu 80%steigern. Die konkrete Bedeutungdieses Umstands für große Unternehmen zeigt das Beispiel desbritischen Unternehmens BT. Derglobal agierende Kommunikationsanbieter konnte durch konsequenteVirtualisierung eine Reduktionseiner 3.000 Wintel Server umden Faktor 15 erzielen und damitannähernd 2 Megawatt Strom und2,4 Mio US-Dollar einsparen. DieKosten für die Wartung der Serverkonnten um 90% gesenkt werden,225 Tonnen Ausrüstung konnten(umweltgerecht) entsorgt werdenund mehrere Rechenzentren inganz Großbritannien konnten eingespart werden.Diese Einsparungen sind umsobemerkenswerter als lediglich dieWintel-Server berücksichtigt wurden – BT betreibt darüber hinauseine große Anzahl Unix-Server, diebei der Berechnung der Einspa-Server-Virtualisierung und Netzwerk-ManagementSeite 4
rungen gar nicht berücksichtigtwurden.BT hat damit nicht nur laufendeKosten signifikant reduziert (unteranderem konnte der Bau einesneuen Rechenzentrums für veranschlagte 120 Mio US vermiedenwerden), sondern wurde außerdemmit drei bedeutenden europäischenUmweltpreisen für die Reduzierungdes Kohlendioxidausstoßes ausgezeichnet. Während des gesamtenProzesses verzeichnete BT ein konstantes Wachstum. Dies widerlegtdas oft gebrauchte Argument, Unternehmen müssten sich zwischenWachstum und Umweltschutzentscheiden.Ohne die geringsten geschäftlichenEinbußen hat dieses Projekt dasKonzept der „grünen“ Unternehmensführung untermauert, die vonBT zu Beginn dieses Jahrzehnts inder EU und in den USA eingeführtwurde. Und dabei ist dies nochnicht einmal eines der extremstenBeispiele dafür, was mit Server-Virtualisierung erreicht werden kann.Natürlich ist BT ein sehr großesUnternehmen. Kleinere Firmenwerden in absoluten Zahlen proportional geringere Einsparungenverbuchen können. Die prozentualen Anteile allerdings sind fürUnternehmen mit mehr als 50Servern absolut realistisch. Damitkönnen diese sowohl die effektiveLebensdauer ihrer Rechenzentrenverlängern als auch die Energiekosten senken.Aber auch noch kleinere Unternehmen können Nutzen aus der Virtualisierung ziehen, vor allem wenn sievor der Notwendigkeit eines ServerUpgrades stehen. Ein großer Serververursacht weniger Kosten bei Anschaffung, Betrieb und Wartung alsselbst eine geringe Anzahl kleinerServer. Die Automatisierung beimManagement der verschiedenen Applikationen, die die Virtualisierungleistet, kann schon bei kleinerenFirmen zu einer deutlichen Entlastung des Personals führen.Die genannten Einsparungenwerden unter anderem durch denEinsatz der sogenannten HypervisorTechnologie bei der Virtualisierungerreicht, die von den ProduktenVMWare Server, Microsoft VirtualServer, XenServer und vergleichbaren Produkten eingesetzt wird.Der Hypervisor erfordert, dass jedervirtuelle Server über eine eigeneKopie des Betriebssystems verfügt.Dies ist die bevorzugte Lösung,wenn Anwendungen, die auf unterschiedlichen Betriebssystemenlaufen – beispielsweise Windows,Unix oder Linux – als virtualisierteAnwendungen auf einem physikalischen Rechner betrieben werdensollen, d. h. jeder virtuelle Rechnerdenkt, er hätte die Hardware fürsich alleine. Wenn aber verschiedene Applikationen, die unter demgleichen Betriebssystem laufen,virtualisiert werden sollen, gibt eseffizientere Lösungen.In diesem Fall bietet die Virtualisierung von Applikationen (im Gegensatz zur Server Virtualisierung) einedeutlich effizientere Lösung, indemSie mehreren virtuellen Anwendungen die Nutzung einer einzigenKopie des Betriebssystems ermöglicht (z. B. mit Virtuozzo, OpenVZ).Je nach Applikation können soauch hochperformante Applikationen virtualisiert werden, die sichfür eine Virtualisierung mittelsHypervisor Technik nicht eignen.LinkEinsparungen dank Virtualisierungbei BT in Großbritannien:http://wikibon.org/BT%E2%80%99s award winningshift from dark to light greenServer-Virtualisierung und Netzwerk-ManagementSeite 5
NetzwerkMonitoring undVirtualisierungAuf den ersten Blick scheint dieVirtualisierung geringe Auswirkungen auf das Netzwerk-Management zu haben. Nach wie vor laufen in demselben Rechenzentrumdie gleichen Applikationen, nureben auf einem anderen Gerät.Bei genauerem Hinsehen zeigensich allerdings durchaus Folgenfür das Netzwerk-Management.Der Umfang dieser Folgen hängtin hohem Maß von der Architekturvor der Virtualisierung ab. Eineumfassende Virtualisierung ist einevon mehreren Ursachen für dieAblösung von zentralen Rechensystemen durch das Netzwerk alsMittelpunkt der IT-Infrastruktur.Dies erhöht die Bedeutung desNetzwerkbetriebs ebenso wie diepotenziellen Auswirkungen von Störungen und macht die konsequenteÜberwachung des Netzwerks zueiner essenziellen Notwendigkeitfür moderne Unternehmen.Virtualisierung inder PraxisKonzentration vonApplikationenVirtualisierung führt Anwendungenauf einem oder einigen wenigenphysikalischen Servern zusammenund schafft so zentrale RisikoPunkte. Beeinträchtigungen derverbleibenden Server oder ihrerNetzwerkanbindung können massive Beeinträchtigungen für dengesamten Geschäftsbetrieb zurFolge haben.Wer sich noch an die 1980er Jahreund die damals eingesetzten Terminals erinnert, weiß, wie der Ausfalleines Zentralrechners ein komplettes Unternehmen lahmlegenkann. Der Ausfall eines Switchesoder Routers in einer hoch virtualisierten Umgebung kann ähnlicheAuswirkungen haben, indem er denZugriff auf 50 oder 100 zentraleAnwendungen unterbrechen kann.Eine Netzwerküberwachungs-Lösung wie beispielsweise PRTG Network Monitor von Paessler reagiertbereits auf kleinste Änderungenim Netzwerkverkehr genauso wiebei Fehlfunktionen von Gerätenoder Applikationen und kann so beiStörungen eines Windows-Serversoder seiner Netzwerkanbindungdie zuständige IT-Abteilung sofortbenachrichtigen, so dass diese umgehend reagieren und schlimmereFolgen verhindern kann.Speicherlösungen beiVirtualisierungServer-Virtualisierung stellt dieMöglichkeit in Aussicht, Ressourcen wie beispielsweise Festplattenspeicher dynamisch zwischenverschiedenen Applikationen nachBedarf zu teilen und zu verschieben.In einer Umgebung mit verschiedenen Servern erfordert dies dieMigration von Attached-StorageLösungen (Server verfügen wiePCs oder Laptops über eigeneFestplatten) hin zu Systemen mitgetrennten Speichermedien, sogenannten SANs (Storage-Area-Networks), die Teil einer umfassendenNetzwerk-Infrastruktur sind.Server-Virtualisierung und Netzwerk-ManagementSeite 6
Diese Migration vollzieht sichseit den späten 1990er Jahrenund bringt verschiedene Vorteilein Hinblick auf Flexibilität undDatensicherheit mit sich. Sie wirdsich noch beschleunigen, nachdemdie Server Virtualisierung auchUnternehmen erreicht hat, die nochApplikationen mit Attached StorageLösungen betreiben.Der Nachteil dabei ist, dass dergesamte Datenverkehr von Applikationen jetzt über das Netzwerkerfolgt und schon kleinste Verzögerungen bei Applikationen Problemeverursachen können. Dadurchkönnen virtualisierte UmgebungenAusfälle von Switches oder Überlastungen des Netzwerks nur schwertolerieren.Hier sind zuverlässige NetzwerkÜberwachungs-Lösungen wie PRTGNetwork Monitor gefragt, die sowohlkritische Punkte des Netzwerksin Echtzeit überwachen als auchüber historische Daten langfristigeTrends erkennen lassen. Damitkönnen Netzwerk-Verantwortlichevorausschauend planen und Engpässen rechtzeitig vorbeugenKonventionelle UmgebungPRTGPRTGJede Applikation ist auf einem eigenenphysikalischen Server mit angeschlossenemSpeicher beheimatetMittels Virtualisierung konsolidiertPRTGPRTGDrei Anwendungen laufen in einer virtuellenUmgebung und teilen sich die Ressourcen desvirtuellen Servers.Server-Virtualisierung und Netzwerk-ManagementSeite 7
Virtualisierungund RessourcenManagementZur sive und speicherlastige Anwendungen haben sichals schlechte Kandidaten für dieVirtualisierung unter HypervisorTechnologie erwiesen. Als Folgedavon kann eine generelle Virtualisierung ernsthafte Probleme beider Einhaltung von Service-Levelnverursachen.Server Virtualisierung versprichtdie dynamische Zuweisung vonRechenleistung und Speicherplatzum Verbrauchsspitzen einzelnerApplikationen abfangen zu können.Das würde eine deutlich effizientereNutzung vorhandener Ressourcenermöglichen.Einer der Hauptgründe für denniedrigen Nutzungsgrad von nichtvirtualisierten Umgebungen liegtdarin, dass für jede Applikationausreichend Ressourcen (Rechenkapazität, Arbeitsspeicher, Festplattenspeicher) bereitgestellt werdenmüssen, um die jeweiligen Bedarfsspitzen inklusive einer Reserve fürmöglicherweise steigende Anforderungen abzufangen.Allerdings ist es nicht immereinfach, Applikationen zu identifizieren, die besser auf einemDedicated-Server betrieben werden sollten. Art und Umfang desDatentransfers von und zu einerApplikation liefern dabei dieentscheidenden Hinweise. PräziseMonitoring-Daten liefern die Basiszur Identifikation dieser Anwendungen.Oft ist es schwierig, gerade dieseSteigerung der Anforderungen vorherzusagen. Meist kann man hierLoad Balancingloadtx80%Atload80%BtMit wachsender Akzeptanz einer Anwendung durch die Nutzer (rot) benötigt diese verstärkt Ressourcen. Dies kann anPunkt tx einfach durch Verschieben einer anderen Applikation (blau) auf eine andere virtuelle Maschine erreicht werden.Server-Virtualisierung und Netzwerk-ManagementSeite 8
mit einem exponentiellen Anstieganstatt einer sanften Kurve rechnen: Solange Mitarbeiter sich miteiner neuen Applikation vertrautmachen, ist deren Nutzung meistrecht gering. Haben die Mitarbeiteraber den Nutzen der Applikationfür ihre Arbeit erst einmal erkannt,wird diese auch massiv eingesetzt.In letzter Konsequenz führt diesdazu, dass alle Server und Speichermedien in einer virtualisiertenUmgebung zur Ressourcenplanungals ein einziger großer Rechner behandelt werden können. Alle Ressourcen können addiert und gegendie Summe der Anforderungen allerApplikationen verrechnet werden.Viele Anwendungen unterliegenstarken zyklischen Schwankungenbei der Nutzung, die in wöchent lichem, monatlichem oder jährlichem Rhythmus stattfindenkönnen. Finanzsoftware ist eintypisches Beispiel für eine Applikation, die einem starken monatlichen oder vierteljährlichen Zyklusunterworfen ist. Darüber hinausgibt es viele weitere Anwendungen,die nicht gleichmäßig genutztwerden.In der Praxis wird dies nur innerhalb eines einzigen Rechenzentrums funktionieren, da geringeEinbußen in der Verbindungsgeschwindigkeit bereits zu Leistungseinbrüchen führen können. Außerdem kann dies nur funktionieren,solange das Netzwerk, das diephysikalischen Server verbindet,schnell und hochgradig fehlertolerant ist. Um die benötigte Leistungzu gewährleisten, ist wiederum einsorgfältiges Netzwerk-Managementund -Monitoring erforderlich.Für diese Schwankungen müssen ineiner nicht-virtualisierten Umgebung ständig die vollständigenRessourcen für die Maximal-Anforderungen bereitgehalten werden.Das kann zu enormen Investitionenin Rechenleistung und Speicherführen, die dann die meiste Zeitbrachliegen.Virtualisierung löst dieses Problemdurch die dynamische Zuweisungder Ressourcen an die einzelnenApplikationen.Der Bedarf der einzelnen Applikationen in einem Rechenzentrumverläuft für gewöhnlich nach unterschiedlichen Zyklen. Eine Applikation kann bei hoher BeanspruchungRessourcen von anderen Anwendungen „ausleihen“, die geradewenig gefordert sind.In äußersten Fällen sollen virtualisierte Umgebungen in der Lagesein, ganze Applikationen über dasNetzwerk von einem Server aufeinen anderen umzuziehen, umdiesen Anforderungen zu begegnen.Virtualisierungund Software vonPaesslerDie Paessler AG mit Sitz in Nürnberg bietet mit PRTG Network Monitor eine umfassende Lösung zurÜberwachung von Netzwerken allerGrößen an. PRTG Network Monitordeckt alle Aspekte professionellerNetzwerküberwachung ab:Verfügbarkeitsüberwachung, Bandbreiten- und Nutzungsmessung,SNMP, NetFlow, WMI, Packet Sniffing und vieles mehr, kombiniertmit umfassenden Analyse- undDarstellungs-Features.Bereits in der Planungsphase zurVirtualisierung kann PRTG Network Monitor Aufschluss über zuerwartende Leistungsansprücheverschiedener Applikationen geben.Es ermöglicht dem Anwender, anhand von Langzeittrends AnnahmenServer-Virtualisierung und Netzwerk-ManagementSeite 9
über zu erwartetende Lastspitzenzu machen und ermöglicht so diebedarfsgerechte Planung der benötigten Ressourcen.Während des Betriebs gewährleistetPRTG in Echtzeit die lückenloseÜberwachung virtueller Umgebungen. Risiken, die durch dieKonzentration zentraler Applikationen auf wenigen physikalischenServern entstehen, werden ständigkontrolliert, so dass bei Ausfällenund Beeinträchtigungen sofortreagiert werden kann und schwerwiegende Folgen vermieden werden. Durch die Auswertung langfristiger Überwachungsdaten könnenSchwachstellen aufgedeckt und soAusfälle vermieden sowie die generelle Leistungsfähigkeit verbessertwerden.PRTG Network Monitor überzeugtneben dem umfassenden Angebotan Überwachungs-Features durchseine einfache Installation mitautomatischer Netzwerkerkennungund Konfiguration, die intuitive, benutzerfreundliche Bedienung, einehohe Performanz und nicht zuletztdas hervorragende Preis-Leistungsverhältnis. Weltweit sind mehr als150.000 Installationen von PRTGim Einsatz.Neben PRTG Network Monitor bietet die Paessler AG mit WebserverStress Tool ein weiteres Produkt,dass bei der Planung und Optimierung virtualisierter Umgebungenunterstützend eingesetzt werdenkann. Webserver Stress Tool isteine Testsoftware für HTTP-Server(Webserver), die unter großer Lastauftretende, versteckte PerformanzProbleme des Webservers bzw. derWebapplikationen aufdeckt.Durch Simulation von hundertenoder tausenden Benutzern, diegleichzeitig HTTP-Anfragen aneinen Server senden, kann dasVerhalten von Webservern unternormaler und außerordentlicherLast getestet und so die benötigtenRessourcen berechnet und bereitgestellt werden.Sowohl PRTG Network Monitor alsauch Webserver Stress Tool sind alsFreeware, als 30-Tage-Testversionund in verschiedenen Editionen unter www.de.paessler.com erhältlich.PRTG Network MonitorNetzwerk-Verfügbarkeits- MP HelperWindows rWebserver Stress ToolLast- und Stress-Tests vonWebseiten:www.paessler.com/webstressthe network monitoring companyPaessler AG Burgschmietstraße 1090419 Nürnberg Deutschlandwww.paessler.com [email protected] und Netzwerk-ManagementSeite 10
Server-Virtualisierung ist aktuell der wohl wichtigste Trend bei Techno-logien für Rechenzentren. Gartner prognostiziert der Virtualisierung bis 2012 von allen neuen Tech-nologien den größten Einfluss auf IT-Infrastrukturen und -Betrieb. Bei erfolgreichem Einsatz hat Server-Virtualisierun