Diverses Weniger Rechner, mehr Leistung

Wer mehr Leistung braucht, muss nicht gleich in neue Hardware investieren. Clevere Software verteilt die Aufgaben auf ungenutzte Ressourcen - und sorgt damit für eine bessere Klimabilanz.

38 Server waren beim mittelständischen Unternehmen ESK Ceramics aus Kempten bis vor rund einem Jahr in Betrieb. Heute sind es nur noch fünf. Dabei ist der Hersteller keramischer Produkte für industrielle Anwendungen keineswegs auf Schrumpfkurs. Er suchte vielmehr nach einer Möglichkeit, seine IT-Landschaft flexibler und energieeffizienter zu gestalten und trotz Wachstums die Betriebskosten zu senken. Die Lösung fand man in der Virtualisierung, jenem Prozess, der sich dem Verstand eines Normalbürgers nicht sofort erschließt, der aber offenbar genau das gewünschte Potenzial bietet. Was schrumpfte, waren daraufhin die Strom- und Kühlkosten sowie die Fläche des Rechenzentrums, beide um rund 80 Prozent.

Noch drastischer verkleinerte der Düsseldorfer Versicherungskonzern Ergo seinen Serverpark. „Im Jahre 2009 haben wir 500 Server virtualisiert und auf nur 45 physikalischen Servern zusammengefasst“, erklärt Norbert Sabel, Leiter des IT-Betriebs im Geschäftsbereich Infrastrukturmanagement des hauseigenen IT-Dienstleisters ITERGO. Die Reduzierung des Energieverbrauchs für Strom und Klimatisierung entspreche dem Verbrauch von 145 Privathaushalten.

Anzeige

Virtualisierung als Modewort kann Vieles bedeuten, etwa den Aufbau virtueller Welten oder Geschäftsprozesse. In der Informatik umschreibt der Begriff eine clevere, softwaregestützte Methode, vorhandene Hardwareressourcen je nach Bedarf der einzelnen Anwendungen besser zu verteilen. „Bei vielen Kunden lag die Auslastung ihrer Server bei fünf bis zehn Prozent, bei manchen nur bei zwei bis drei“, erklärt Alex Stark, Program Director für Linux Development bei IBM Deutschland. Und das, obwohl die Server ständig volle Betriebsleistung bringen müssen. „Das Ziel liegt bei 80 bis 90 Prozent Auslastung“.

Energiesparende Scheinwelt

Deshalb sei Virtualisierung zurzeit „ein großes Thema in den Firmen“, erklärt Stark weiter. Praktisch jedes größere Unternehmen habe inzwischen seine IT-Landschaft damit umgebaut. Dies bestätigt auch die Studie „IT-Trends 2010“ des Beratungsunternehmens Capgemini. „Das wichtigste Thema des Jahres ist Virtualisierung“, heißt es da, es wurde von Unternehmen aus 33 Trends ausgewählt. Unter den Branchen „liegen ganz vorne Banken und Versicherungen, denn die können gut rechnen“, sagt Stark, außerdem Telekommunikationsunternehmen. Auch der Mittelstand ziehe nach. Allerdings: Laut dem Onlineportal Zdnet nutzt zurzeit erst ein Fünftel aller kleinen und mittleren Unternehmen die Vorteile der Server-Virtualisierung.

Schon vor rund 45 Jahren hat man die Begrenztheit der Großrechner-Speicher erkannt und Prozesse in Tabellen umgerechnet. Erst dadurch ist möglich geworden, was man heute unter Multitasking versteht, dass nämlich mehrere Anwendungen auf einen Speicher zugreifen. Seit es zudem virtuelle Prozessoren gibt, wird den Anwendungen „vorgegaukelt, sie hätten jeweils einen eigenen Prozessor zur Verfügung“, erklärt Stark. Ein Virtualisierungsprogramm schließlich erzeug auf einem Rechner mehrere virtuelle Server, auf die andere Computer im Netz so zuzgreifen können, als handle es sich dabei um einzelne, echte Hardware-Server.

Schlüssel zu Grüner IT

Das spart einerseits Server-Hardware, und damit Stromfresser wie Netzteile und Kühlventilatoren. Überdies kann die Leistung der Hardware-Server besser ausgenutzt werden: Sie wird nämlich je nach Bedarf den einzelnen virtuellen Servern zugeteilt, die darauf simuliert werden. So braucht ein Email-Server tagsüber Leistung, wenn viele Emails eingehen und abgerufen werden. Nachts hingegen hat der Email-Server wenig zu tun, wohl aber der Backup-Server, der just dann die Geschäftsdaten sichert. Der Schlüssel zur Leistungsverteilung liegt beim so genannten Hypervisor, einem Hilfsprogramm, das die Leistung nach Bedarf zuteilt. Neue Hardware muss in der Regel nicht dazu gekauft werden.

Ganz unterschiedlich sind offenbar die Erwartungen, die die Unternehmen an die Virtualisierung ihrer Systeme stellen. Mal stehen die Energiekosten im Vordergrund und damit das Ziel einer Green IT, die sich auf die Klimabilanz des gesamten Unternehmens niederschlägt. Gleichzeitig verringern sich bei einer kleineren Gerätezahl die Lizenzkosten für Software. Beachtlich ist besonders der Zuwachs an Flexibilität etwa bei plötzlich auftauchenden Großaufträgen, wie Stark erklärt: „Virtuelle Server stehen nach 30 Sekunden zur Verfügung, während die entsprechende Hardware oft erst nach Tagen oder Wochen läuft“.

Sorgfältige Konfiguration schützt Daten

Bei Ergo gaben Schnelligkeit und Effizienz den Ausschlag, so Norbert Sabel, der betont, dass bei der Server-Virtualisierung nicht nur Technologie gefordert sei, sondern auch umsichtige Planung. Deshalb gehe die Virtualisierung oft mit einer umfassenden IT-Standardisierung einher. In Sabels Unternehmen nahm man sich eineinhalb Jahre für den Vorlauf Zeit, während die eigentliche Virtualisierung dann nur wenige Wochenenden in Anspruch nahm.

Virtualisierung dient offenbar auch der Betriebssicherheit. Im Katastrophenfall, so Sabel, könne man virtuelle Server leichter auf andere Systeme verlagern als neue Hardware beschaffen. Was die Sicherheit vor Angriffen von außen betrifft, hält Claudia Eckert, Leiterin des Fraunhofer Instituts für Sichere Informationstechnologie (FhG-SIT) und des Lehrstuhls für Sicherheit in der Informatik an der TU München, die aktuellen Softwareprodukte für sicher, „aber nur, wenn man sie richtig konfiguriert“, und „eine gute Zugangs-Überprüfung“ zur Verfügung stellt. Wenn nicht, haben Angreifer bedeutend schneller als früher die Daten des gesamten Unternehmens auf dem Schirm. Gefahren sieht Eckert eher in der Tendenz des Mittelstandes, die gesamte IT auszulagern, auf externe, auch virtuelle Server oder in Clouds. Als Dienstleister seien hier einige „wenig seriöse Anbieter“ am Markt, die die Firmendaten dann „ausschleusen“. Zurzeit arbeiten die Wissenschaftler an Leitlinien für Mittelständler, mit deren Hilfe sie sich auf diesem Gebiet zurechtfinden können.

Nicht zuletzt lässt sich auch der eigene Arbeitsplatz virtualisieren. As bedeutet nichts Anderes, als auf ein leistungsstarkes Endgerät zu verzichten, zugunsten von zentralisierter Hard- und Software. Dieser Trend, so Eckert, „kommt zurzeit wieder, wegen der heutigen flexiblen Arbeitsplätze“ und der Notwendigkeit, sensible Daten im Haus zu behalten. IT-Personal lässt sich laut Eckert hingegen nicht ohne Weiteres mitvirtualisieren. In Zukunft sei vielmehr „eine stärkere Fachqualifikation“ gefragt.

Hinterlassen Sie einen Kommentar

(Kommentare werden von der Redaktion montags bis freitags von 10 bis 18 Uhr freigeschaltet)

Bitte beantworten Sie die Sicherheitsabfrage (Anti-Spam-Schutz): *Captcha loading...